Igor Zubrycki

Igor Zubrycki

Dr inż. Igor Zubrycki jest adiunktem w Instytucie Automatyki Politechniki Łódzkiej, w Zakładzie Sterowania Robotów. Specjalizuje się w robotyce nakierowanej na człowieka, robotyce miękkiej i sztucznej inteligencji. W ramach współpracy z biznesem tworzy także systemy oparte na uczeniu maszynowym dla dużych sieci handlowych.
Więcej

Jak się robi sztuczny umysł?

W ostatnim czasie giganci technologiczni demonstrują coraz to nowsze przykłady fascynujących osiągnięć sztucznej inteligencji, a w szczególności uczenia maszynowego – obecnie najmocniej rozwijającej się części tej dziedziny.

 

Niektórzy reagują na to z entuzjazmem, oczekując wygodnych podróży w samochodzie bez kierowcy czy inteligentnych asystentów, dyskretnie przypominających o imieninach cioci i zapewniających, że kwiaty zostały już kupione.  Inni sprawdzają stan swojego konta i przygotowują się na moment, kiedy ich pracę zastąpi maszyna, ewentualnie mają przed oczami sceny z filmu Terminator, w którym roboty wyposażone w sztuczną inteligencję dążą do zagłady ludzkości. Nowości w dziedzinie sztucznej inteligencji niosą za sobą ogromne zmiany.

W rzeczywistości jednak dziedzina ta nie jest nowa. Powstała w latach pięćdziesiątych ubiegłego wieku i niedługo będzie obchodzić swoje siedemdziesięciolecie. Można zatem oprzeć się na doświadczeniach osób zajmujących się sztuczną inteligencją od dawna, aby przewidzieć najbardziej prawdopodobny kierunek jej postępu. Jedną z takich osób jest prof. Margaret Boden, która w swojej zwięzłej, a jednocześnie wnikliwej książce Sztuczna inteligencja. Jej natura i przyszłość pokazuje nie tylko, skąd wzięły się współczesne oszałamiające wyniki prac nad sztuczną inteligencją, ale także przedstawia niepowodzenia w badaniach, będące źródłem rozczarowań dla całego pokolenia specjalistów.

 
Od początków prac nad sztuczną inteligencją stawiano sobie pytanie „jak”, a często, „czy w ogóle” da się stworzyć sztuczny umysł, który przynajmniej w pewien sposób przypominałby umysł człowieka? Do tego, jakby przy okazji, potrzebna była odpowiedź na pytanie, czym ten ludzki umysł jest?

 

Przy poszukiwaniach odpowiedzi, po początkowym okresie naukowej komitywy, naukowcy podzielili się na dwie grupy. Pierwsza uważała, że umysł wykorzystuje zebrane fakty, reguły i logikę do tworzenia myśli i planów. Druga twierdziła, że inteligencja jest wynikiem samego współistnienia i łączenia się wielu prostych działań. Dzisiejsze inteligentne samochody czy roboty zdolne do konwersacji są efektem połączenia tych dwóch podejść.

Dla przykładu, za pomocą sieci neuronowych (gigantycznych sieci obliczeniowych) piksele obrazu przekładają się na zrozumienie tego, w jakiej kategorii jest obserwowany obraz (np. kot) oraz w jaki sposób przekładamy dźwięk na słowa. Pojedynczy element sieci neuronowej niewiele różni się od znanej z podstawówki funkcji y = a*x. Jednakże aby przekształcić wyniki obliczeń takiej sieci na dane wartościowe dla człowieka, do sieci przypięty jest cały system logicznych reguł („ifelse”), które są najczęściej pisane ręcznie przez programistów. Daleko nam do „silnej sztucznej inteligencji”, gdzie komputer będzie działał bez żadnej ludzkiej ingerencji.

Profesor Boden pisze o perspektywie kilkudziesięciu lat, aby dotrzeć do poziomu, na którym urządzenie będzie nie tylko wykonywać pojedyncze nauczone lub zaprogramowane zadanie, ale w pełni dbać o siebie, rozwijać się i działać z rozsądkiem. Z drugiej strony – etap ten może nigdy nie nadejść. Kluczowe elementy umysłu – odczuwanie emocji, świadomość, autonomia – są ściśle związane z tym, w jaki sposób w procesie ewolucji staliśmy się ludźmi. Proces ten trwał miliony lat i był ściśle związany z tym, że jesteśmy istotami żywymi.

Co prawda nie spodziewamy się końca świata wywołanego silną sztuczną inteligencją, jednak istnieją bliskie zagrożenia związane z tworzeniem systemów sztucznej inteligencji, szczególnie dotyczące skrzętnie pomijanych przez firmy technologiczne zagadnień etycznych i społecznych.

 
Chociaż scenariusz Terminatora jest raczej nierealny, to wykorzystanie sztucznej inteligencji w narzędziach wojennych dzieje się na naszych oczach. Dopiero po proteście pracowników  w 2018 roku firma Google wycofała się z projektu wykorzystania sztucznej inteligencji przez Pentagon.

 

Innym przykładem zagrożeń sztucznej inteligencji jest masowa inwigilacja obywateli w Chinach czy systemy sztucznej inteligencji, które na podstawie historycznych danych — sądowych bądź opisujących zatrudnienie — dyskryminują osoby ze względu na płeć czy kolor skóry, sugerując np., że człowiek ciemnoskóry może być przestępcą lub że mężczyzna bardziej nadaje się na programistę.

Niewiele jest firm będących w stanie zebrać tak wielkie ilości danych dla systemów sztucznej inteligencji oraz posiadających odpowiednią zdolność obliczeniową. Ryzyko zwiększania różnic społecznych wynika z nierównego dostępu do technologii. Prawdziwe zagrożenia dotyczą więc bardziej tego, kto posiada takie systemy i jak je wykorzystuje niż tego, że sztuczna inteligencja jest zła sama w sobie.

Książka Margaret Boden przybliża kluczowe idee dotyczące sztucznej inteligencji. Z racji zawiłości samej dyscypliny i jej interdyscyplinarnego charakteru może wymagać od czytelnika skupienia, aby zrozumieć istotę omawianych problemów. Świadomość możliwości oraz problemów pozwala jednak na aktywną dyskusję o roli, jaką sztuczna inteligencja odgrywa i będzie odgrywać w przyszłości.

 

Komentarze

Ten post dostępny jest także w języku: angielski

29.06.2020

Inne teksty tego autora