Z wielkim postępem wiąże się wielka odpowiedzialność

Autor: Roger Morrison
Data Utworzenia: 27 Wrzesień 2021
Data Aktualizacji: 1 Lipiec 2024
Anonim
Øskarżyli USA o stworzenie CØVID! “Mamy DOWODY” | WIADOMOŚCI
Wideo: Øskarżyli USA o stworzenie CØVID! “Mamy DOWODY” | WIADOMOŚCI

Zawartość


Źródło: Mike2focus / Dreamstime.com

Na wynos:

Zużycie mediów ewoluuje wraz z postępem technologicznym, takim jak sztuczna inteligencja (AI). Chociaż ogólnie popieramy postęp, musimy również zdawać sobie sprawę z wad niektórych form technologii. Zdolność AI ma ciemną stronę, gdy jest wykorzystywana do promowania fałszywych wiadomości.

Ciemna strona technologii była jednym z tematów poruszonych na drugiej konferencji Machines + Media w NYC Media Lab, sponsorowanej i prowadzonej przez Bloomberg w jej globalnej siedzibie w mieście 15 maja. Chociaż niektóre sesje dotyczyły bardziej zastanowienia się, jakie technologie jest obecnie dostępny dla mediów, nawet tych, które poruszają cień manipulacji i dezinformacji.

Dobra historia jest bardziej przekonująca niż cała prawda

W sesji zatytułowanej „State of the Art” Gilad Lotan, wiceprezes ds. Danych, Buzzfeed, wskazał, że problemu fałszywych lub wprowadzających w błąd wiadomości nie można obwiniać wyłącznie firm medialnych lub nowych technologii. „Ludzie niekoniecznie szukają faktów” - powiedział. „Czytelnicy chcą opowiadań”.


Dodał, że podsycanie tego pragnienia historii i ulubionych narracji może prowadzić do fałszywych wiadomości, które są „większą manipulacją niż fałszywymi informacjami”. W rzeczywistości dostarczona historia może w ogóle nie zawierać niczego fałszywego. Fałszywe jest to, że zgłaszane fakty są wybierane i usuwane z większego „oszustwa”, aby doprowadzić „czytelników do wniosku”.

W tym samym duchu podczas sesji „Platform + Media” Kelly Born z Fundacji Williama i Flory Hewlett Foundation Us Democracy Initiative powiedziała: „Ludzie lubią wiadomości, które wzmacniają ich przekonania, a zwłaszcza jeśli wywołują oburzenie”. Ostrzegła kapitalizację tych mediów. ta tendencja może doprowadzić do „doskonałej burzy”, która wydobywa z nas najgorsze. Sytuację pogarsza możliwość całkowicie sfabrykowanych prezentacji.

Czy widzenie wciąż wierzy?

Technologia odgrywa rolę w opowiadaniu historii poprzez obrazy i wideo. Zwykle wierzymy w to, co widzimy, chyba że istnieją oczywiste oznaki manipulacji. Jednak, ponieważ sztuczna inteligencja poprawia realizm fałszywych filmów, teraz można dosłownie umieścić słowa w ustach osób publicznych. (Sztuczna inteligencja nie jest wykorzystywana tylko do nikczemnych celów. Sprawdź niektóre konstruktywne w 5 sposobów, w jakie firmy mogą chcieć rozważyć użycie sztucznej inteligencji).


Niebezpieczeństwo związane z produkcją bardzo wiarygodnych filmów przez AI zostało zademonstrowane podczas sesji zatytułowanej „Rozwiązania dla ciemnej strony mediów napędzanych maszynowo”. Zaczęło się od filmu z udziałem Baracka Obamy, mówiącego rzeczy, których były prezydent nigdy nie powiedział. Ruch był nadal nieco niezsynchronizowany ze słowami, więc ma pewne ślady sfałszowanego wideo, a większość publiczności powiedziała, że ​​mogliby uznać go za fałszywy.

To, że manipulacje wideo Obamy nie osiągnęły realizmu wskrzeszenia Petera Cushinga jako Grand Moffa Tarkina w „Rogue One”. Jak wyjaśnił artykuł z New York Timesa, efekt został osiągnięty poprzez noszenie przez aktora „materiałów rejestrujących ruch na głowie” podczas gdy przed kamerą „aby jego twarz mogła zostać zastąpiona cyfrową rekonstrukcją Cushinga”. Dyrektor filmowy / starszy kierownik ds. efektów wizualnych nazwał to „super zaawansowaną technologicznie i pracochłonną wersją robienia makijaż."

Niewykrywalne podróbki

Teraz, dzięki zaawansowanym sztucznym inteligencjom, w szczególności generatywnym sieciom przeciwników (GAN), osiągnięcie magicznych efektów filmowych jest łatwiejsze niż kiedykolwiek. Korzystając z GAN, jeden system sztucznej inteligencji udoskonala materiał filmowy, aż będzie wystarczająco dobry, aby zostać zaakceptowanym przez system sztucznej inteligencji zaprojektowany do wykrywania podróbek.

Bez błędów, bez stresu - Twój przewodnik krok po kroku do tworzenia oprogramowania zmieniającego życie bez niszczenia życia

Nie możesz poprawić swoich umiejętności programistycznych, gdy nikt nie dba o jakość oprogramowania.

W tym filmie badacze pokazują, w jaki sposób aktor może kierować ruchami twarzy osoby publicznej, aby uzyskać jakikolwiek wyraz i wypowiedź z poziomem wierności, jakiego zwykle nie ma w dokumentach dokumentowanych.

Chociaż nie każda osoba, która bawi się filmami, ma obecnie dostępny taki system, oprogramowanie będzie w zasięgu większej liczby osób w najbliższej przyszłości.

Możliwe konsekwencje

Dhruv Ghulati, założyciel i dyrektor generalny firmy Factmata, mówi, że „bardzo się martwi”, w jaki sposób można zastosować tę umiejętność do umieszczania na filmach nie tylko twarzy światowych liderów, ale prezesów i celebrytów, co jest dowodem ich wypowiedzi lub robienia rzeczy, których nie zrobili . Niszczycielskie moce filmu zostałyby zintensyfikowane poprzez osiągnięcie efektu wirusowego z botnetów.

Oznacza to, że „nie możemy już ufać naszym kłamliwym oczom” - stwierdził Mor Naaman, profesor informatyki, Cornell Tech. Martwił się, że doprowadzi to do utraty zaufania.

Inni obawiają się rozpalać płomienie przemocy. Już „tylko nieznacznie zmodyfikowane filmy” są „używane do wywoływania przemocy w krajach rozwijających się”, zauważył Aviv Ovadya, główny technolog, Centrum Odpowiedzialności Społecznej. (Media społecznościowe mogą być skutecznym sposobem rozpowszechniania fałszywych informacji. Sprawdź 4 najbardziej niszczycielskie hacki na kanałach.)

Sarah Hudson, partner, Investing in US, wyraziła zaniepokojenie, że zmanipulowane obrazy „na dużą skalę” stanowią „niewiarygodne zagrożenie dla bezpieczeństwa publicznego”.

Proaktywne planowanie

Ovadya powiedział, że konieczne jest „zapobieganie jak największej liczbie takich nadużyć”. Dlatego ważne jest, aby „myśleć z wyprzedzeniem podczas opracowywania technologii” o „jak złagodzić złe skutki” i „przeznaczać zasoby na przeciwdziałanie niezamierzonym konsekwencjom”.

Nie można cofnąć czasu, ale musimy zadbać o przemyślenie i zaplanowanie kierunku, w którym podążamy. Oznacza to nie tylko pracę nad technologią, aby zobaczyć, co można zrobić, ale także zastanowienie się nad tym, co można zrobić, czego należy uniknąć.

Kierunkiem rozwoju innowacji technologicznych jest przemyślenie, jakie mogą być skutki, i zaplanowanie zabezpieczeń, zanim pojawią się zagrożenia. Aby to zrobić, potrzebujemy współpracy między badaczami, firmami technologicznymi i agencjami rządowymi w celu ustanowienia standardów i najlepszych praktyk, których ludzie będą przestrzegać. To powinno być priorytetem dla wszystkich zainteresowanych.