Wizje z "Black Mirror"? "To nie przyszłość, te technologie już są. Tylko jeszcze nie w tak zwyrodniałej formie"

- Ten serial jest o dzisiaj, o systemach rekomendacji, o randkowaniu online, o grach komputerowych, o rozszerzonej rzeczywistości. To są te systemy, które nie są jeszcze obłaskawione, ale już z nami są - mówiła w TOK FM specjalistka od sztucznej inteligencji dr Aleksandra Przegalińska.

"Kiedy wymyślono samochód, wszyscy się cieszyli z tego wynalazku, ale zdarzyła się cała masa wypadków zanim ludzie opracowali system dróg i znaków, umożliwiających bezpieczną jazdę. Tak samo jest z nowymi technologiami, nie wrócimy do telefonów stacjonarnych i jaskiń, będziemy błądzić" -  powiedział w jednym z wywiadów twórca serialu Black Mirror.

Patrycja Wanat zapytała dr Aleksandrę Przegalińską, ekspertkę zajmującą się sztuczną inteligencją, o to na ile serialowe wizje bliskie są naszej rzeczywistości albo temu, co nas niedługo będzie czekać.

- Choć zajmuję się sztuczną inteligencją, nie mogę z pobłażliwym uśmiechem oglądać tego, co tam widzę.Ten serial jest przede wszystkim o społecznych konsekwencjach użycia tych nowych technologii. I ja też takie użycia sobie czasem wyobrażam i wyobrażam sobie również zwyrodniałe formy wykorzystania technologii, nad którymi pracujemy. Choć to pewnie opcja ekstremalna, raczej rzadka - stwierdziła dr Przegalińska.

Zamknięta bańka

I przytoczyła przykład programu technologii afektywnych, nad którymi teraz pracuje. Chodzi o mechanizmy, które wykrywają ludzkie emocje. Można całego człowieka ubrać w takie sensory i sprawdzać, jak się czuje. Oczywiście jest szereg różnych zastosowań tych technologii -  może ona posłużyć do tego, żeby np. wykrywać epilepsję, albo żeby optymalizować trailery filmowe pod kontem ludzkich upodobań.

- Włączam pani Youtube'a i jest pani oglądana, kiedy pani go ogląda. Zbierane są różne pani reakcje i pod to dobierane są kolejne filmy i żadnych innych poza tym, co system dla pani zoptymalizuje, pani nie zobaczy. Efekt jest taki, ze będzie pani w zamkniętej bańce rekomendacji

Jak zauważyła ekspertka sam Netflix stosuje bardzo ciekawy system rekomendowania treści. Bardzo ciężko jest zobaczyć coś, czego system nie uzna za trafne dla nas. Jak wyjaśnia, to kwestia uczenia maszynowego. Jak do tego włączyć jeszcze kamerkę skierowaną na użytkownika, który ogląda, to można się o tym użytkowniku bardzo dużo się dowiedzieć. To będą bardzo intymne dane, które mogą być rozmaicie wykorzystane, również w sposób, który da nam poczucie, że już nie jesteśmy panami niczego.

- Rozmawiam też w moim zespole, że to co my robimy, może być wykorzystane w innym celu. I rzeczywiście, jak oglądam Black Mirror, to mówię sobie, tak ta wersja jest możliwa. Bo to jest serial o technologiach, które są już w fazie wczesnego rozwoju czy adaptacji. I on pokazuje, gdzie może to nas zaprowadzić. W pewnej zmutowanej, zwyrodniałej formie - opowiadała Przegalińska.

I zaznaczyła, że to nie są rozmowy o osobliwościach i sztucznej inteligencji, o tym jak ona kiedyś będzie już na poziomie człowieka i robotach humanoidalnych, które chodzą pośród ludzi niezauważone. - Ten serial jest o dzisiaj, o systemach rekomendacji, o randkowaniu online, o grach komputerowych, o rozszerzonej rzeczywistości. To są te systemy, które nie są jeszcze obłaskawione, ale już są z nami - stwierdziła.

Co można z tym zrobić?

Dlatego też pojawia się kluczowe pytanie, kto powinien decydować o tym, kto i jak te technologie wykorzystuje. Czy taka kontrola jest w ogóle możliwa, żeby ten przysłowiowy nóż służył do krojenia chleba, a nie do zabijania?  - pytała swojego gościa Patrycja Wanat.

- W kręgach naukowców i kręgach politycznych dopiero zaczyna się na ten temat debata. To trochę niedobrze, bo te technologie są już dość szeroko stosowane, ale nie do końca wiadomo, kto za nie odpowiada. Jak jest choćby z  głębokim uczeniem maszynowym. To jest taka technologia współczesna, dzięki której systemy technologiczne są dalece bardziej zdolne do przewidywania pewnych rzeczy niż ludzie. Co może mieć dalekosiężne skutki społeczne również moralne. Jednak debata na temat jego konsekwencji jest na dość wczesnym etapie - mówiła specjalistka.

Wyjaśniła, że jednym z rozważanych obecnie rozwiązań są regulacje prawne. - To poważnie rozważana droga. Teraz m.in. po mikrotargetingu w kampaniach,  gdy już wiemy, że musimy coś zrobić z tymi mediami społecznościowymi i z tzw. fake newsami, ale też ze sposobem targetowania odbiorców. Skoro wystarczy odpowiednio targetować przekaz i można wygrać wybory, to coś tu jest nie tak. Może to dość radykalny pogląd, ale ja naprawdę uważam, że siła mikrotargetingu jest ogromna.  I w związku z tym jakieś regulacje są potrzebne - oceniła.

Krajobraz nietknięty debatą

I przypomniała, że sam Facebook stanął w ogniu krytyki, bo jest platformą, na której rozsiewano fake newsy, ale też dochodziło na nim do szerokiego targetingu behavioralnego użytkowników, pod kontem tego, na kogo mogliby głosować. Wcześniej Facebook jako medium społecznościowe cieszył się ogromną popularnością i zaufaniem, a cały krajobraz mediów społecznościowych był nietknięty poważną debatą regulacyjną. 

- W Unii Europejskiej jest tendencja, żeby wprowadzić znacznie poważniejsze regulacje w tym obszarze. Amerykanie cały czas się przed tym bronią, wierząc w samoregulację, i że w toku debaty z decydentami uda się wypracować jakieś rozwiązania. A trzecia droga to jest edukacja i pod tym względem ten serial spełnia bardzo ważną rolę społeczną - stwierdziła.

Dr Przegalińska opowiadała również o projekcie Citizen Score, który od roku 2020 ma być realizowany w Chinach. To jest projekt, w którym zbierane są wszelkie informacje i oceny - od mandatów i bycie niemiłym w sklepie, po to do jakiej szkoły się chodziło i czy płaci się podatki. Wszystkie te dane mają wpływać na ocenę danej osoby, jako obywatela kraju, a to z kolei ma się przełożyć m.in. na zdolność kredytową czy na to, do jakiej szkoły pójdzie nasze dziecko.

Całej audycji posłuchasz tutaj:

TOK FM PREMIUM