Sora 2 pokaże twojego szefa, który kopie i rzuca przedmiotami? "Ogromny problem"
Open AI stworzyło aplikację Sora 2, która generuje fikcyjne, ale realistyczne wideo. Na zagrożenia z tym związane wskazała w TOK FM Aleksandra Wójtowicz, analityczka ds. nowych technologii i cyfryzacji.
Z tego artykułu dowiesz się:
- Czym jest Sora 2;
- Jak może zmienić internet ta aplikacja oparta na sztucznej inteligencji;
- Jakie zagrożenia ze sobą niesie Sora 2.
Sora 2 to aplikacja Open AI, która generuje wideo. Na razie pilotażowo jest dostępna w Stanach Zjednoczonych i Kanadzie. - To generator treści działający podobnie do Chata GPT, oparty na sztucznej inteligencji. Ale w odróżnieniu od Chata GPT jest wyspecjalizowana nie w tekście, ale w obrazie wideo. Już rok temu Open AI wypuściła pierwszy model Sory, a teraz na rynku pojawiła się Sora 2 - tłumaczyła w TOK FM Aleksandra Wójtowicz, analityczka ds. nowych technologii i cyfryzacji w Polskim Instytucie Spraw Międzynarodowych.
Jak Sora 2 zmieni internet?
Rozmówczyni Anny Piekutowskiej zauważyła, że Sora 2 przypomina nieco serwis z filmikami TikTok, tyle że w niej wszystkie wideo są fikcyjne, bo wytworzone przez sztuczną inteligencję.
Jak jednak ta aplikacja zmieni internet? - Może to zrobić dość znacząco i negatywnie - mówiła ekspertka i zwróciła uwagę, że Sora 2 produkuje filmiki o coraz lepszej jakości, przez co są realistyczne. A to może powodować różne zagrożenia.
- Czytałam taki reportaż w "Bloombergu", w którym dziennikarz opisywał swoje pierwsze doświadczenia z Sorą 2. W bardzo krótkim czasie mógł wygenerować realistyczne nagrania swojego szefa, który wpada w furię. Rzuca przedmiotami, krzyczy, kopie. Tutaj widać duże zagrożenia, które są związane z dezinformacją. Łatwiej jest generować fikcyjne wideo (deepfake), które pokazuje np. coś, co dzieje się w Ukrainie czy Sudanie. W miejscach, gdzie toczą się wojny - opisywała.
"98 proc. deepfake'ów ma charakter pornograficzny" Jak Sora 2 zmieni internet?
Drugie zagrożenie, jakie może nieść aplikacja Sora 2, to deepporn, czyli fikcyjne materiały pornograficzne z prawdziwymi wizerunkami konkretnych ludzi. - Co prawda, Open AI twierdzi, że ma zabezpieczenia, które nie pozwalają tego robić. Ale nawet ten dziennikarz "Bloomberga" twierdzi, że wygenerował taką treść, która jest zabroniona - przytoczyła przykład.
Jak dodała, już dziś nawet 98 proc. deepfake'ów to tzw. deepporn, a dziś takie treści mogą być jeszcze bardziej realistyczne. - To ogromny problem – podkreśliła ekspertka.
Na koniec audycji gościni TOK FM postawiła jednak optymistyczny akcent. Stwierdziła, że użytkownicy internetu coraz lepiej rozpoznają fikcyjne obrazy, które są wygenerowane przez sztuczną inteligencję. - Nawet jeśli (przedstawiony na niej człowiek – przyp. red.) ma 5, a nie 10 palców u dłoni, to wyczuwamy, że coś się nie zgadza. Więc być może nawet z tą ulepszoną AI też tak będzie – podsumowała rozmówczyni Anny Piekutowskiej.
Źródło: TOK FM