Sztuczna inteligencja coraz uważniej obserwuje świat
Inteligentne komputerowe systemy uczą się już rozpoznawać archeologiczne znaleziska czy szukać dalekich planet. Coraz uważniej obserwują także ludzi, a to […]
Inteligentne komputerowe systemy uczą się już rozpoznawać archeologiczne znaleziska czy szukać dalekich planet. Coraz uważniej obserwują także ludzi, a to – oprócz korzyści – może przynieść kłopotliwe, a nawet przykre skutki.
Któż potrafiłby rozróżnić narzędzia wykonane w środkowej i późnej epoce kamienia? Kłopot mają z tym nawet archeolodzy, mimo że, jak podkreślają, te dwa okresy dzieli kulturowa przepaść. Naukowcy z University of Liverpool i Max Planck Institute for the Science of Human History przedstawili właśnie system sztucznej inteligencji, który z kategoryzowaniem znalezisk radzi sobie lepiej od specjalistów.
Wykorzystaliśmy podejście oparte na sztucznych sieciach neuronowych, aby wytrenować i przetestować modele rozróżniające zbiory narzędzi pochodzące z LSA (ang. Later Stone Age – późniejsza epoka kamienia w prehistorii Afryki, ok. 50 tys. – 39 tys. lat temu) i MSA (Middle Stone Age – środkowa epoka kamienia w prehistorii Afryki, od ok. 280 tys. do 50 tys.-25 tys. lat temu). Modele określają też chronologiczne różnice między starszymi (130-70 tys. lat temu) i młodszymi (71-28 tys. lat temu) zbiorami MSA z 94 proc. dokładnością – mówi dr Matt Grove, archeolog z Liverpoolu.
Badacze planują rozwinąć swoją technologię i m.in. analizować z jej pomocą ewolucję kultur epoki kamienia w różnych rejonach Afryki.
Swój system badacze opisują jako „potężne narzędzie”.
Pomaga nam ono badać i zrozumieć zmiany w kulturach naszych przodków – dodaje dr Jimbob Blinkhorn z Max Planck Institute.
Wydaje się więc, że niektóre elementy świata sztuczna inteligencja postrzega dokładniej, niż człowiek. Z pewnością radzi sobie lepiej pod względem prędkości ich analizowania.
Na przykład zespół z University of Warwick zaprezentował niedawno inteligentne algorytmy, które po raz pierwszy były w stanie sprawdzać, czy teleskop rzeczywiście wykrył pozasłoneczną planetę, czy też nie. Obserwacje czasami bowiem wskazują, że wokół jakiejś gwiazdy krąży daleki glob, ale może wcale go tam nie być. Takie odkrycia weryfikuje się więc skomplikowanymi analizami dostarczanych przez teleskopy informacji. Okazało się, że inteligentny program doskonale sobie z tym radzi. Najpierw przeszedł trening na dwóch dużych bazach danych z potwierdzonymi już planetami odkrytymi przez Kosmiczny Teleskop Keplera. Potem, wśród niezweryfikowanych wcześniej kandydatek system zdołał potwierdzić 50 kolejnych planet.
Algorytm, który opracowaliśmy, pozwolił nam na przeniesienie 50 kandydatek na planety przez próg potwierdzenia, nadając im rangę rzeczywistych planet. Mamy nadzieję zastosować tę technikę do analizy większych zbiorów danych o potencjalnych planetach, które będą pochodziły z obecnych i przyszłych misji, takich jak TESS i PLATO – zwraca uwagę jeden z badaczy, dr David Armstrong. Jeżeli chodzi o konfirmację planet, nikt dotąd nie użył do tego uczenia maszynowego. Uczenie maszynowe wykorzystywano do tworzenia rankingów kandydatek na planety, ale nigdy w probabilistycznej sieci, która jest potrzebna do prawdziwej oceny planety. Zamiast stwierdzania, która z kandydatek ma większe szanse okazać się planetą, teraz możemy dokładnie powiedzieć, jakie jest na to statystyczne prawdopodobieństwo – wyjaśnia badacz.
Co ważne, raz stworzony i nauczony program działa szybciej, niż obecne metody oraz może pracować praktycznie samodzielnie.
To pozwoli na szybkie sprawdzanie tysięcy obserwacji. SI może się przy tym cały czas uczyć i podnosić swoje możliwości.
Jednak inteligentne programy nie tylko spoglądają w kosmos czy w zamierzchłą przeszłość, ale także coraz bystrzejszym okiem zaczynają patrzeć na żyjących dzisiaj ludzi. Już od jakiegoś czasu coraz lepiej uczyły się rozpoznawać np. ludzkie twarze czy przedmioty z otoczenia. Ale eksperci z pakistańskiego HITEC University wykonali duży krok poza te zdolności. Stworzona przez nich SI rozpoznaje widoczne na filmach wykonywane przez ludzi różne czynności. Program potrafi na przykład zauważyć, że ktoś boksuje, klaszcze, macha rękami, uprawia jogging, biegnie czy idzie. To szczególnie trudne zadanie, ponieważ np. jogging i chodzenie są do siebie bardzo podobne. Zależnie od nagrania, nowe algorytmy radziły sobie jednak w 81,4 aż do 99,2 proc. przypadków.
Zdaniem naukowców ich program pozwoli na stworzenie narzędzi, które będą rozpoznawały, co robi dana osoba, czy to na nagraniu wideo czy na obrazie z kamery nadawanym na żywo. Jak sami stwierdzają, może to być doskonała technologia, która da jeszcze większe możliwości kamerom do monitoringu.
Z pewnością trudno temu rozwiązaniu odmówić potencjalnych korzyści.
Taki system mógłby zaalarmować odpowiednie służby, gdy zauważy na przykład napaść, wypadek czy zasłabnięcie. Równolegle jednak rośnie strach przed wszechobecną inwigilacją. Można sobie na przykład wyobrazić, że w czasie podobnej do obecnej epidemii i zarządzeń, nie będzie potrzeby, aby policja w sklepach sprawdzała, czy wszyscy mają maseczki i czy dezynfekują ręce. Wystarczy kamera.
Wodze fantazji można popuścić jeszcze bardziej. Coraz częściej mówi się choćby o militarnym zastosowaniu robotów. Wojskowe drony w powietrzu to już norma. Oby ktoś nie postanowił, że mogą same za siebie decydować. Jeśli okażą się sprawniejsze od człowieka – pokusa będzie trudna do odparcia.
Źródło: naukawpolsce.pap.pl / Marek Matacz
Krzysztof Zieliński
Od 2008 roku współtworzy Oblackie Duszpasterstwo Młodzieży NINIWA, co jest jednocześnie pracą i życiową misją. Współorganizuje i animuje wydarzenia, pisze artykuły, redaguje treści książek i robi znacznie więcej. Człowiek orkiestra.