Czy AI może wykryć fałszywe wiadomości?

Autor: Laura McKinney
Data Utworzenia: 4 Kwiecień 2021
Data Aktualizacji: 1 Lipiec 2024
Anonim
Czy są dowody naukowe na to, że możemy się sami uzdrowić? | Lissa Rankin | TEDxAmericanRiviera
Wideo: Czy są dowody naukowe na to, że możemy się sami uzdrowić? | Lissa Rankin | TEDxAmericanRiviera

Zawartość


Źródło: Mast3r / Dreamstime.com

Na wynos:

Naukowcy zwracają się do AI, aby zwalczać fałszywe wiadomości. Ale czy to naprawdę może pomóc, czy tylko pogorszy sytuację?

Oczekuje się, że fałszywe wiadomości będą istotnym czynnikiem w nadchodzących wyborach prezydenckich, nie wspominając już o jej ogólnym korodującym wpływie na nasz dyskurs publiczny w ogóle. W dzisiejszym połączonym społeczeństwie rozróżnianie faktów od fikcji staje się coraz trudniejsze, dlatego niektórzy badacze zaczynają skupiać się na sile sztucznej inteligencji, aby rozwiązać ten problem.

Istnieje oczywiście nadzieja, że ​​maszyny lub dokładniej algorytmy będą lepsze niż ludzie w wykrywaniu kłamstw. Ale czy to realistyczne oczekiwanie, czy tylko kolejny przypadek rzucenia technologii na pozornie trudny problem?

Złapać złodzieja. . .

Jednym ze sposobów, w jaki naukowcy zajmujący się danymi mają na celu wyostrzenie wiedzy AI w tym obszarze, jest umożliwienie generowania fałszywych wiadomości. Allen Institute for AI na University of Washington opracował i publicznie wydał Grover, silnik przetwarzania języka naturalnego zaprojektowany do tworzenia fałszywych historii na wiele różnych tematów. Choć na początku może się to wydawać odwrotne od zamierzonych, w rzeczywistości jest to dość powszechna taktyka treningu AI, w której jedna maszyna analizuje wydajność innej. W ten sposób strona analityczna może zostać przyspieszona znacznie szybciej niż poleganie na prawdziwych fałszywych wiadomościach. Instytut twierdzi, że Grover może już działać z 92% wskaźnikiem dokładności, ale ważne jest, aby pamiętać, że jest biegły tylko w rozróżnianiu treści generowanych przez AI od treści generowanych przez ludzi, co oznacza, że ​​inteligentna osoba może wciąż przekraść się na fałszywej historii przeszłości (Aby dowiedzieć się więcej, sprawdź Technologie walki z fałszywymi wiadomościami.)


Oczywiście we właściwych rękach Grover może szybko lepiej zrozumieć, w jaki sposób powstają fałszywe wiadomości i jak się je rozprzestrzenia, a teoretycznie można to wykorzystać do udaremnienia ich w prawdziwym świecie. Ale jak niedawno zauważył Futurism.com, niektórzy eksperci, którzy wzięli system na test, są zaniepokojeni skutecznością tworzenia wiarygodnych kłamstw, a nawet naśladowania stylów pisania legalnych serwisów informacyjnych, takich jak Wall Street Journal i Nowy Jork Czasy.

Ale skoro kłamstwo jest z natury intuicyjnym i napędzanym emocjami czynem, czy jest możliwe, że nawet najmądrzejsze maszyny, które wciąż są napędzane zimną, twardą logiką, mogą kiedykolwiek osiągnąć poziom konsekwentnego zrozumienia niezbędny do wykrycia kłamstwa? Maria Almeida z Unbabel zauważyła niedawno, że chociaż niektóre iteracje mogą być w tym całkiem niezłe, żaden algorytm nie może mieć nadziei na pełne zrozumienie człowieka. Oznacza to, że sztuczna inteligencja może znacznie poprawić sprawdzanie faktów i analizę porównawczą, ale ostateczne wezwanie najlepiej pozostawić wyszkolonym ekspertom.


Jak na ironię, ta funkcja będzie najbardziej przydatna w wykrywaniu fałszywych filmów, które zaczynają krążyć w mediach społecznościowych. Dzięki sztucznej inteligencji zdolnej do analizy danych wizualnych aż do poszczególnych pikseli, będzie o wiele bardziej biegły w wykrywaniu zmienionych obrazów niż zmienionych słów i pojęć.

Mimo to, twierdzi Charles Towers-Clark z Forbes, głównym problemem związanym z fałszywymi wiadomościami nie jest to, że tworzy je kilka osób, ale to, że wpływa na nie tak wielu ludzi. Ludzie mają skłonność do wierzenia w to, w co chcą wierzyć, a nie w fakty, w które wierzą. Więc nawet jeśli wysoko rozwinięty silnik AI zadeklaruje, że ich przekonanie jest błędne, ludzie będą bardziej skłonni wątpić w maszynę niż w siebie.

„Wdrażanie uczenia maszynowego w celu zwalczania rozpowszechniania fałszywych wiadomości jest godne podziwu” - mówi - „istnieje potrzeba rozwiązania tego problemu, ponieważ podważana jest wiarygodność głównych mediów. Ale czy wraz z rozpowszechnianiem się dezinformacji w mediach społecznościowych wykrywanie i ujawnianie źródeł fałszywych wiadomości może przezwyciężyć ludzki instynkt, by uwierzyć w to, co nam powiedziano? ”

Bez błędów, bez stresu - Twój przewodnik krok po kroku do tworzenia oprogramowania zmieniającego życie bez niszczenia życia

Nie możesz poprawić swoich umiejętności programistycznych, gdy nikt nie dba o jakość oprogramowania.

Prawdziwym wyzwaniem nie jest zatem identyfikowanie i obalanie fałszywych wiadomości, ale zrozumienie, dlaczego rozpowszechnia się w mediach społecznościowych o wiele szybciej niż prawdziwe wiadomości. Częściowo wynika to z samej natury fałszywych wiadomości, które wydają się być ekscytujące i lubieżne w porównaniu z porównawczym nudą rzeczywistości. Czy w końcu realistyczne jest oczekiwanie, że technologia naprawi coś, co zasadniczo jest problemem nietechnicznym? (Aby dowiedzieć się więcej o tym, jak sztuczna inteligencja zmienia media, zobacz 5 postępów AI w publikowaniu i mediach).

Zatrzymanie rozprzestrzeniania się

Dlatego ważne jest, aby skupić AI na technicznym aspekcie fałszywych wiadomości, a nie na aspekcie ludzkim, mówi Robin Harris z ZDNet. I rzeczywiście, większość badaczy trenuje sztuczną inteligencję, aby wprowadzać takie rzeczy, jak odróżnianie naturalnych i sztucznych wzorców rozmnażania za pośrednictwem sieci społecznościowych. Kluczowe wskaźniki, takie jak wskaźniki drzewa konwersji, czas przesyłania dalej i ogólne dane odpowiedzi, mogą być wykorzystane do identyfikacji i neutralizacji kampanii dezinformacyjnych, nawet jeśli ich źródło jest ukryte pod warstwami cyfrowego podstępu. Jednocześnie sztuczną inteligencję można wykorzystać do zarządzania innymi technologiami, takimi jak blockchain, w celu utrzymania identyfikowalnych, weryfikowalnych kanałów informacyjnych.

Faktem jest, że fałszywe wiadomości nie są nowym zjawiskiem. Od muckraking dziennikarstwa z początku 20th od stulecia wstecz do propagandy najwcześniejszych cywilizacji, oczernianie opinii publicznej jest uświęconą tradycją tradycją zarówno dla zasiadających rządów, jak i rewolucjonistów. Różnica polega na tym, że technologia cyfrowa zdemokratyzowała tę zdolność do tego stopnia, że ​​prawie każdy może opublikować kłamstwo i obserwować, jak rozprzestrzenia się na całym świecie w ciągu kilku godzin.

Technologie takie jak AI z pewnością mogą pomóc w wyjaśnieniu tego zamieszania, ale tylko ludzie mogą w pełni zrozumieć i osądzić prawdę.