Choć może brzmi to abstrakcyjnie, to fakt jest taki, że aktualnie jednym z największych problemów nauki jest to, że generujemy zbyt dużo wiedzy, zbyt dużo danych i nie jesteśmy w stanie tego co wyprodukujemy analizować tak szybko jak byśmy chcieli. Nie jest jednak tak źle jak mogłoby się niektórym wydawać…
Po pierwsze, jak to mawiają „od nadmiaru głowa nie boli”. Może czasami pobolewa, może czasami sprawia, że naukowiec nie wie „w co ręce włożyć”, ale sytuacja, w której mamy nadmiar danych do analizy jest zdecydowanie lepsza od sytuacji, w której brakuje nam danych. Ten nadmiar danych nie jest więc zły, jest jedynie okazją do tego żeby wytworzyć nowe pomysły na analizę owych danych.
I tu pojawiają się najnowsze technologie związane z BIG DATA i SZTUCZNĄ INTELIGENCJĄ.
Analizując nadmiar danych możemy powiedzieć, że nadmiar ten jest problemem na dwóch poziomach.
Na poziomie pierwszym nadamiar dotyczy danych surowych, z których naukowcy wyciągają wnioski. Z przykłaodwego eksperymentu z genetyki czy neurofizjologii powstają giga lub czasem terabajty danych do analizy. Do tego potrzebne są wyspecjalizowane maszyny i techniki zapewniające możliwie szybką obróbkę tych danych. Na świecie budowane są więc specjalne superkomputery kosztujące miliony dolarów i mogące w przeciągu jednego dnia prezanalizować tyle danych ile komputer stacjonarny analizowałby przez rok. W Polsce mamy na przykład Prometeusza czy Orła. Oprócz maszyn potrzebne są też programy, które wykorzystywałyby te maszyny w sposób najbardziej efektywny. Naukowcy tworzą więc coraz bardziej zaawansowane techniki pozwalające na analizę tych danych, włącznie z tak zwanymi programami uczącymi się.
Na drugim poziomie nadmiar danych dotyczy informacji generowanych przez naukowców pod postacią publikacji naukowych. Rocznie publikowane są setki tysięcy artykułów naukowych powiązanych ze sobą czasem w bardzo nieoczywisty sposób. Naukowcy nie są więc w stanie przeczytać w ciągu roku tego co ich koledzy i koleżanki stworzyli w danym roku. I tu do pomocy znów wkraczają programy uczące się. Sztuczna inteligencja, która jest coraz częściej wykorzystywana w wielu gałęziach przemysłu i biznesu pomaga też naukowcom poprzez analizę tekstów naukowych i podsuwanie naukowcom tych artykułów, które mogą się im przydać.
Oczywiście, wiele jest jeszcze do zrobienia jeśli chcemy w pełni wykorzystać dane, które generujemy, ale jesteśmy na zdecydowanie dobrej drodze i wkrótce z analizy tych wszystkich danych wszyscy będziemy mogli korzystać dzięki nowym wynalazkom i odkryciom naukowym.
Więcej:
Superkomputery
http://blogs.discovermagazine.com/d-brief/2016/11/11/semantic-scholar-artificial-intelligence/#.WEV6dtFycb0