Kolektywna inteligencja obliczeniowa
Kolektywna inteligencja obliczeniowa (ang. Computational Collective Intelligence, CCI) jest najczęściej rozumiana jako dział sztucznej inteligencji zajmujący się metodami miękkich obliczeń, które ułatwiają podejmowanie grupowych decyzji oraz przetwarzanie wiedzy przez autonomiczne jednostki działające w środowiskach rozproszonych. Systemy webowe, sieci społeczne oraz systemy wieloagentowe bardzo często potrzebują tych narzędzi do osiagania stanów spójnej wiedzy, rozwiązywania konfliktów I podejmowania decyzji.

Systemy zarządzania wiedzą
Zarządzanie wiedzą (ang. Knowledge Management, KM) to zespół sformalizowanych sposobów gromadzenia i wykorzystywania wiedzy formalnej oraz wiedzy cichej uczestników organizacji (np. pracowników firmy). Zarządzanie wiedzą, to próba jak najlepszego wykorzystania wiedzy, która jest dostępna w organizacji, tworzenie nowej wiedzy oraz zwiększanie jej zrozumienia. Z kolei Knowledge Management System (KMS) to w wąskim znaczeniu system informatyczny, którego celem jest wsparcie zarządzania wiedzą (ZW) w organizacji, w szerokim znaczeniu ogół działań (w tym system informatyczny, system motywacyjny, system pomiarowy), których celem jest wsparcie ZW w organizacji.

1
z Wikipedii

Agenty i systemy wieloagentowe
System wieloagentowy (ang. multi-agent system) to system złożony z komunikujących i współpracujących między sobą agentów, realizujących wspólne cele. Systemy wieloagentowe często stosowane są w sytuacjach, gdy trzeba rozwiązać problemy o charakterze rozproszonym lub złożonych obliczeniowo, np. wyszukiwanie informacji w sieci, zarządzanie sieciami telekomunikacyjnymi, symulacja rynku, wspomaganie zarządzania w przedsiębiorstwie i kontrola ruchu lotniczego. Z kolei agenta można zdefiniować jako jednostkę, działającą w pewnym środowisku, zdolną do komunikowania się, monitorowania swego otoczenia i podejmowania autonomicznych decyzji, aby osiągnąć cele określone podczas jej projektowania lub działania. Agent powinien charakteryzować się następującymi cechami:
  • autonomicznością (zdolność podejmowania samodzielnych decyzji),
  • komunikatywnością (umiejętność komunikacji z innymi agentami i użytkownikiem),
  • percepcją (jest to zdolność do postrzegania i reagowania na zmiany środowiska)
Dodatkową często wykorzystywana cechą jest mobilność. Inne popularne cechy agenta:
  • zdolność do wykorzystywania wiedzy
  • tolerancyjność na błędy, złe wejścia (input)
  • zdolność do używania symboli i abstrakcji
  • zdolność do adaptacji w celu osiągnięcia celu
  • zdolność do uczenia się
  • zdolność do przeprowadzania operacji w czasie rzeczywistym
  • zdolność do komunikacji w języku naturalnym.
1 z Wikipedii

Rekomendacja i personalizacja w systemach webowych
Głównym celem systemów rekomendacyjnych jest dostarczenie spersonalizowanej informacji dla zróżnicowanych użytkowników systemów webowych. Systemy tego typu mają zastosowanie w wielu dziedzinach, takich jak: filtrowanie wiadomości, rekomendacja stron webowych, spersonalizowanych wiadomości prasowych, rekomendacji w zakresie muzyki, filmów, turystyki i zakupów, filtrowania poczty elektronicznej, rekomendacji kursów edukacyjnych, rekomendacji interfejsów użytkownika, wspomagania negocjacji, i in. Przy tworzeniu systemów rekomendacyjnych rozpatruje się dwa ich główne wymiary: modelowanie użytkownika i wykorzystanie modelu. W ramach modelowania wyróżnia się problemy reprezentacji i utrzymania profilu użytkownika oraz zastosowane techniki uczenia profilu. Natomiast problem wykorzystania modelu obejmuje: metody filtrowania informacji, metody przyporządkowania profili oraz techniki adaptacji.

Złożone i hybrydowe modele inteligencji obliczeniowej
Głównym celem badań jest opracowanie algorytmów budowy zespołów modeli statystycznych klasyfikatorów/regresorów (ang. Ensemble Models), które posiadają lepsze zdolności predykcyjne aniżeli modele składowe. W wypadku modeli złożonych: zespołów modeli i modeli hybrydowych, podstawowe znaczenie ma rozstrzygnięcie czy zastosować modele homogeniczne (tego samego typu) czy heterogeniczne (różnorodnych typów, o różnym obciążeniu i różnych własnościach), i które rodzaje modeli bazowych są najbardziej przydatne. Ponadto należy określić jaką liczbę prób należy przeprowadzić i na jakich zbiorach danych, ile modeli składowych utworzyć, jak zapewnić różnorodność modeli składowych, jaką metodą zagregować ich wyniki, jakich testów statystycznych, służących do porównania wielu modeli na wielu zbiorach danych, użyć do ewaluacji uzyskanych wyników. Problemem do rozwiązania jest równoczesne zapewnienie odpowiedniej stabilności modeli tak, by nieznaczne zmiany, któregokolwiek z parametrów nie powodowały znaczących zmian wyników predykcji. Kolejnym zagadnieniem jest osiągnięcie optymalnej równowagi pomiędzy dokładnością a interpretowalnością modeli, co ma duże znaczenie praktyczne i jest szczególnie trudne do uzyskania w przypadku rozwiązań hybrydowych i wielomodelowych. Głównymi metodami budowy zespołów modeli są: bagging, boosting, stacking, subsampling, random subspaces, mixtures of experts i inne.

Semantyczne wyszukiwanie informacji

Tradycyjne metody wyszukiwania informacji nie koniecznie są odpowiednie dla wyszukiwania i analizy współczesnej WWW. W naszych badaniach skupiamy się na metodach wyszukiwania dostosowanych do specyfiki współczesnych (Web 2.0), a nawet przyszłych (Web 3.0) silników wyszukiwania i analizy WWW. Dotyczy to całego spektrum technik: począwszy od analizy struktury linków aż po wykorzystanie semantyki relacji w sieciach społecznych. W naszych badaniach przewijają się takie paradygmaty i technologie, jak:

  • Semantic Web (OWL)
  • Linked Data (RDF. SPARQL)
  • Ontologie WWW (FOAF)
  • Agregacja danych z WWW

Przetwarzanie multimediów

Od momentu pierwszych zastosowań hipertekst wykorzystany był w połączeniu z multimediami (hipermedia), dlatego różne rodzaje informacji multimedialnych są kluczowymi elementami systemów informacyjnych na platformie WWW. Nasze badania obejmują następujące aspekty przetwarzania takiej informacji:

  • Przetwarzania sygnału dźwiękowego
  • Rozpoznawanie obrazu i grupowanie sekwencji wideo
  • Kompresja stratna i bezstratna
  • Odtwarzania niezależne od platformy

Analiza i poprawa wydajności systemów

Wydajność i czas reakcji systemu to zazwyczaj priorytetowe kwestie dla użytkowników, szczególnie w środowisku WWW. Stały rozwój systemu powinien być zawsze prowadzony równolegle z analizą wydajności. Nasze badania w tej dziedzinie obejmują:

  • Techniki buforowania treści
  • Testy użyteczności
  • Algorytmy indeksowania treści
  • Techniki optymalizacji w środowisku WWW



Metodologie e-Learningu

Współczesny e-learning (2.0) koncentruje się głównie na nauczaniu w wykorzystaniem narzędzi technologii informacyjnych. Korzystanie z platformy moodle (StOPKa3) jako podstawowego narzędzia w nauczaniu jest dla nas inspiracją dla szukania nowych technik i zastosowań narzędzi współpracy online'owej. Nasze obszary badawcze w tej dziedzinie obejmują:

  • Paradygmaty zastosowań technik współpracy w trybie online, takich jak wiki czy wideokonferencje
  • Systemy zarządzania nauczaniem (LMS) oraz systemy zarządzania materiałami dydaktycznymi (LCMS)
  • Techniki cyfrowej dokumentacji, jak screencast (z oknem wideo narratora) czy slajdy zrzutów ekranowych (z opisem lub narracją)
  • Egzaminowanie w oparciu o testy wielokrotnego wyboru

Inne aktywności

Konferencje
Czasopisma naukowe
Książki
Stowarzyszenia naukowe
Projekty badawcze