Andrzej Mleczko: Sztuczna inteligencja wie o nas więcej, niż nam się wydaje
Czy można mówić o wolności w świecie sztucznej inteligencji? Czy w związku z rozwojem nowych technologii mamy się czego obawiać?
O algorytmach, świadomości i zastosowaniu sztucznej inteligencji opowiedział w rozmowie ze Stacją 7 Andrzej Mleczko – informatyk i programista, uczestnik drugiej debaty Pro Tempore o sztucznej inteligencji.
Katarzyna Wysocka (Stacja7): Coraz częściej mówi się o testowaniu sztucznej inteligencji, o coraz to nowszych technologiach. To odległy temat, czy sztuczna inteligencja jest wśród nas?
Andrzej Mleczko: Sztuczna inteligencja w takim powszechnym rozumieniu jest z nami już od wielu lat. Każdy z nas prawdopodobnie się z nią zetknął np. w formie aplikacji na telefonie, czy nawigacji. Pytanie w jaki sposób tę sztuczną inteligencję zdefiniujemy. Nie ma jednej dobrej definicji, jednak to od niej będzie zależało to, z czym się spotykamy. Czy jest to sztuczna inteligencja, czy też nie.
Zatem jaka jest jej definicja?
Inteligencja tak naprawdę z biologicznego punktu widzenia to tworzenie się sieci neuronowych. Im są one bardziej rozbudowane, tym szybciej przetwarzamy informacje, jesteśmy w stanie obliczać i myśleć. W tym komputery nas od wielu lat przewyższają, bo są szybsze i magazynują więcej pamięci, i to właśnie jest sztuczna inteligencja.
Przeczytaj również
Sztuczna inteligencja coraz częściej pojawia się wśród nas, nie jest już zapisem przyszłości, ale teraźniejszością. Z historii znamy przykłady, kiedy genialne wynalazki, zostały źle wykorzystane przez człowieka. Gdzie jest granica, by wykorzystać sztuczną inteligencję w złym celu, czy można wgl tę granicę oszacować?
Od intencji twórcy tak naprawdę zależy, czy to narzędzie będzie wykorzystane w sposób dobry lub zły. Samo narzędzie – sama sztuczna inteligencja, nie jest ani dobra ani zła.
Sztuczna inteligencja jest narzędziem do osiągnięcia ściśle określonego celu. Od intencji twórcy tak naprawdę zależy, czy to narzędzie będzie wykorzystane w sposób dobry lub zły. Samo narzędzie – sama sztuczna inteligencja, nie jest ani dobra ani zła. Natomiast od samej intencji twórcy, w tym wypadku programisty, będzie zależało, czy zostanie wykorzystywana do dobrych, czy złych celów.
Czy jesteśmy w stanie przewidzieć co stanie się, kiedy człowiek wykorzysta sztuczną inteligencję w zły sposób? Czy będą to sceny niczym z filmu science fiction?
Tutaj dochodzi do pewnego nieporozumienia. Radziłbym, nie mylić sztucznej inteligencji z systemami które mają własną świadomość. Ten drugi koncept jest niezwykle ciekawy, pobudzający wyobraźnię i to właśnie on najczęściej jest przedmiotem filmów science fiction. Te urządzenia, które mają własną świadomość, np. HAL 9000 ze słynnej “Odysei Kosmicznej” budzą największy strach, bo przejmują kontrolę. To nie jest sztuczna inteligencja. Tego, o czym mowa w filmach science fiction, nauka nie jest w stanie osiągnąć na ten moment. Urządzenia, o których mówimy obecnie mają bardzo dużą moc obliczeniową i o wiele większą pamięć od człowieka. To daje im przewagę do wykonywania skomplikowanych operacji znacznie szybciej. To nie znaczy, że mają one własną świadomość i mogą przejąć kontrolę poza tymi celami, które zdefiniował ich twórca.
Czy człowiek w świecie sztucznej inteligencji może być wolny?
To w dużej mierze zależy od intencji twórcy. Obecnie mamy do czynienia z algorytmami, które podejmują za człowieka określone decyzje. Doskonałym przykładem jest serwis YouTube, gdzie filmy wyświetlane określonym użytkownikom, są dobierane na podstawie ich preferencji, historii wyszukiwania, aktywności i aktualności. Celem tego zabiegu jest to, aby użytkownik spędził jak najwięcej czasu w witrynie. Czy to ogranicza naszą wolność? W pewnym sensie nie – wciąż mamy wybór, ale lista potencjalnych filmów, które możemy obejrzeć jest ograniczona – algorytm ogranicza dostęp do całej biblioteki filmów. Dlatego można powiedzieć, że wówczas wolność człowieka jest w pewnym sensie zagrożona.
W najnowszych samochodach autonomicznych powstają systemy, które w razie wypadku podejmują decyzję za kierowcę kto zginie, a kto przeżyje poprzez dany algorytm ustalony przez producenta bądź programistę. Czy w tym przypadku można mówić o wolności człowieka w świecie sztucznej inteligencji? Gdzie jest miejsce dla sumienia, dla świadomości człowieka?
Samochód autonomiczny przejmuje za kierowcę podejmowanie decyzji. Wówczas człowiek powierza maszynie swoją decyzyjność. Wtedy odpowiedzialność spada niekoniecznie na kierowcę – w takiej sytuacji staje się on tylko pasażerem – ale bardziej na twórcę bądź firmę, która ten samochód stworzyła. Czy to ogranicza naszą wolność? Nie do końca, ponieważ człowiek godzi się na to. Podejmuje decyzję o powierzeniu maszynie całego procesu jazdy ze wszystkimi jej konsekwencjami. Jeśli człowiek jest świadomy konkretnych algorytmów działania maszyny, to nie ogranicza jego wolności. Problem rozpoczyna się w momencie, kiedy decyzje, które podejmuje maszyna, nie są człowiekowi znane. Wtedy wolność staje się rzeczywiście ograniczona.
Jeśli człowiek jest świadomy konkretnych algorytmów działania maszyny, to nie ogranicza jego wolności. Problem rozpoczyna się w momencie, kiedy decyzje, które podejmuje maszyna, nie są człowiekowi znane. Wtedy wolność staje się rzeczywiście ograniczona.
Czy sztuczna inteligencja, świadomość maszyn może wymknąć się spod kontroli?
Jeżeli faktycznie w rozwoju cywilizacji, rozwoju technologii dojdziemy do takiej sytuacji, gdzie maszyny osiągną własną świadomość, to jest potencjalne zagrożenie. Jednak to jest temat bardziej dla fantastyków – osób zajmujących się przyszłością, nie teraźniejszością. Na ten moment nie mamy takich doświadczeń.
Teoretycznie nie mamy takich doświadczeń, jednak w 2017 r. zespół facebooka przeprowadził pewien eksperyment. Roboty wyposażone w sztuczną inteligencję zostały zaprogramowane, by mówić po angielsku. Po pewnym czasie roboty zaczęły mówić do siebie zupełnie nowym, wytworzonym przez siebie językiem i nikt nie był w stanie ich zrozumieć. Postanowiono wyłączyć roboty, bo wszystko wymknęło się spod kontroli. Czy zatem powinniśmy być ostrożni wobec sztucznej inteligencji?
Przypuszczam, że roboty mogły zostać wyłączone z dwóch powodów. Albo dlatego, że faza testu dobiegła końca – doświadczenie zostało zrealizowane, a teza potwierdzona bądź obalona. Lub dlatego, że rzeczywiście to badanie mogło wymknąć się spod kontroli, jednak nie na zasadzie zagrożenia dla ludzkości, tylko bardziej dla samego programu, według którego one działały. Chciałbym raczej ostudzić emocje i podkreślić, że cała branża IT mocno inwestuje w sztuczną inteligencję, wyłącznie dlatego, że moce obliczeniowe maszyn znacznie przewyższają zdolności człowieka. To, co przekazuje nam współczesna kinematografia, fantastyka, to tak naprawdę jest futurystyka i zabawa z tym, co może się wydarzyć.
Na czym polega odpowiedzialność człowieka w świecie sztucznej inteligencji? Czy człowiek ma w związku z tym jakąkolwiek odpowiedzialność?
Odpowiedzialność spada głównie na kwestie etyczne – w jaki sposób skomplikowane systemy sztucznej inteligencji są wykorzystywane. Nie jest łatwo ocenić tutaj intencji i sposobu ich działania. Intencja jest za pewną zasłoną, która dla użytkowników tych systemów nie do końca może być jasna. To podstawowe zagrożenie dla wolności i odpowiedzialności.
Jak mądrze wykorzystać sztuczną inteligencję? Czy jest przepis, jak nie dać jej zdeterminować decyzji i wyborów?
tak naprawdę nie zdajemy sobie sprawy, że pewna część aplikacji, stron internetowych, wie o nas więcej, niż może się wydawać. To powoduje, że decyzje człowieka nie mogą być w pełni wolne.
Na tę kwestię niestety patrzę dosyć pesymistycznie. Jeżeli chcemy korzystać z dobrodziejstw współczesnej cywilizacji, rozwoju technologicznego, nie jestesmy w stanie przechytrzyć algorytmów i sztucznej inteligencji. Korzystając z różnych aplikacji, z internetu zostawiamy po sobie wiele śladów. Te informacje często są wykorzystywane przez systemy, z których korzystamy. Jednakże nie jesteśmy w stanie tego aspektu całkowicie wyeliminować. Im więcej śladów człowiek pozostawi, tym więcej sztuczna inteligencja będzie miała pól manewru. Tak naprawdę nie zdajemy sobie sprawy, że pewna część aplikacji, stron internetowych, wie o nas więcej, niż może się wydawać. To powoduje, że decyzje człowieka nie mogą być w pełni wolne.
Zatem nie do końca możemy ufać mediom społecznościowym, algorytmom dotyczącym danych, sztucznej inteligencji generalnie?
Oczywiście. To budzi zagrożenia jeśli chodzi o wolność obywatelską i generalnie decyzyjność człowieka. Nie możemy ufać korporacjom i mediom społecznościowym. Między innymi z tego powodu, że wiedzą one więcej niż nam się wydaje. W tym momencie jest to nierówny pojedynek i musimy zakładać, że dane zebrane przez różnego rodzaju korporacje, są wykorzystywane na różnych płaszczyznach. Należy być bardzo ostrożnym. Jednak warto odnaleźć balans pomiędzy korzystaniem z dostępnych dóbr technologicznych, będąc zdystansowanym.
Andrzej Mleczko będzie uczestnikiem dzisiejszej debaty z serii Pro-tempore dialog nauk. Spotkanie zatytułowane: “Czy można być wolnym i odpowiedzialnym w świecie sztucznej inteligencji?” odbędzie się dziś o godz. 19.00 i będzie dostępne w formie online.