Zawartość
- Złapać złodzieja. . .
- Bez błędów, bez stresu - Twój przewodnik krok po kroku do tworzenia oprogramowania zmieniającego życie bez niszczenia życia
- Zatrzymanie rozprzestrzeniania się
Źródło: Mast3r / Dreamstime.com
Na wynos:
Naukowcy zwracają się do AI, aby zwalczać fałszywe wiadomości. Ale czy to naprawdę może pomóc, czy tylko pogorszy sytuację?
Oczekuje się, że fałszywe wiadomości będą istotnym czynnikiem w nadchodzących wyborach prezydenckich, nie wspominając już o jej ogólnym korodującym wpływie na nasz dyskurs publiczny w ogóle. W dzisiejszym połączonym społeczeństwie rozróżnianie faktów od fikcji staje się coraz trudniejsze, dlatego niektórzy badacze zaczynają skupiać się na sile sztucznej inteligencji, aby rozwiązać ten problem.
Istnieje oczywiście nadzieja, że maszyny lub dokładniej algorytmy będą lepsze niż ludzie w wykrywaniu kłamstw. Ale czy to realistyczne oczekiwanie, czy tylko kolejny przypadek rzucenia technologii na pozornie trudny problem?
Złapać złodzieja. . .
Jednym ze sposobów, w jaki naukowcy zajmujący się danymi mają na celu wyostrzenie wiedzy AI w tym obszarze, jest umożliwienie generowania fałszywych wiadomości. Allen Institute for AI na University of Washington opracował i publicznie wydał Grover, silnik przetwarzania języka naturalnego zaprojektowany do tworzenia fałszywych historii na wiele różnych tematów. Choć na początku może się to wydawać odwrotne od zamierzonych, w rzeczywistości jest to dość powszechna taktyka treningu AI, w której jedna maszyna analizuje wydajność innej. W ten sposób strona analityczna może zostać przyspieszona znacznie szybciej niż poleganie na prawdziwych fałszywych wiadomościach. Instytut twierdzi, że Grover może już działać z 92% wskaźnikiem dokładności, ale ważne jest, aby pamiętać, że jest biegły tylko w rozróżnianiu treści generowanych przez AI od treści generowanych przez ludzi, co oznacza, że inteligentna osoba może wciąż przekraść się na fałszywej historii przeszłości (Aby dowiedzieć się więcej, sprawdź Technologie walki z fałszywymi wiadomościami.)
Oczywiście we właściwych rękach Grover może szybko lepiej zrozumieć, w jaki sposób powstają fałszywe wiadomości i jak się je rozprzestrzenia, a teoretycznie można to wykorzystać do udaremnienia ich w prawdziwym świecie. Ale jak niedawno zauważył Futurism.com, niektórzy eksperci, którzy wzięli system na test, są zaniepokojeni skutecznością tworzenia wiarygodnych kłamstw, a nawet naśladowania stylów pisania legalnych serwisów informacyjnych, takich jak Wall Street Journal i Nowy Jork Czasy.
Ale skoro kłamstwo jest z natury intuicyjnym i napędzanym emocjami czynem, czy jest możliwe, że nawet najmądrzejsze maszyny, które wciąż są napędzane zimną, twardą logiką, mogą kiedykolwiek osiągnąć poziom konsekwentnego zrozumienia niezbędny do wykrycia kłamstwa? Maria Almeida z Unbabel zauważyła niedawno, że chociaż niektóre iteracje mogą być w tym całkiem niezłe, żaden algorytm nie może mieć nadziei na pełne zrozumienie człowieka. Oznacza to, że sztuczna inteligencja może znacznie poprawić sprawdzanie faktów i analizę porównawczą, ale ostateczne wezwanie najlepiej pozostawić wyszkolonym ekspertom.
Jak na ironię, ta funkcja będzie najbardziej przydatna w wykrywaniu fałszywych filmów, które zaczynają krążyć w mediach społecznościowych. Dzięki sztucznej inteligencji zdolnej do analizy danych wizualnych aż do poszczególnych pikseli, będzie o wiele bardziej biegły w wykrywaniu zmienionych obrazów niż zmienionych słów i pojęć.
Mimo to, twierdzi Charles Towers-Clark z Forbes, głównym problemem związanym z fałszywymi wiadomościami nie jest to, że tworzy je kilka osób, ale to, że wpływa na nie tak wielu ludzi. Ludzie mają skłonność do wierzenia w to, w co chcą wierzyć, a nie w fakty, w które wierzą. Więc nawet jeśli wysoko rozwinięty silnik AI zadeklaruje, że ich przekonanie jest błędne, ludzie będą bardziej skłonni wątpić w maszynę niż w siebie.
„Wdrażanie uczenia maszynowego w celu zwalczania rozpowszechniania fałszywych wiadomości jest godne podziwu” - mówi - „istnieje potrzeba rozwiązania tego problemu, ponieważ podważana jest wiarygodność głównych mediów. Ale czy wraz z rozpowszechnianiem się dezinformacji w mediach społecznościowych wykrywanie i ujawnianie źródeł fałszywych wiadomości może przezwyciężyć ludzki instynkt, by uwierzyć w to, co nam powiedziano? ”
Bez błędów, bez stresu - Twój przewodnik krok po kroku do tworzenia oprogramowania zmieniającego życie bez niszczenia życia
Nie możesz poprawić swoich umiejętności programistycznych, gdy nikt nie dba o jakość oprogramowania.
Prawdziwym wyzwaniem nie jest zatem identyfikowanie i obalanie fałszywych wiadomości, ale zrozumienie, dlaczego rozpowszechnia się w mediach społecznościowych o wiele szybciej niż prawdziwe wiadomości. Częściowo wynika to z samej natury fałszywych wiadomości, które wydają się być ekscytujące i lubieżne w porównaniu z porównawczym nudą rzeczywistości. Czy w końcu realistyczne jest oczekiwanie, że technologia naprawi coś, co zasadniczo jest problemem nietechnicznym? (Aby dowiedzieć się więcej o tym, jak sztuczna inteligencja zmienia media, zobacz 5 postępów AI w publikowaniu i mediach).
Zatrzymanie rozprzestrzeniania się
Dlatego ważne jest, aby skupić AI na technicznym aspekcie fałszywych wiadomości, a nie na aspekcie ludzkim, mówi Robin Harris z ZDNet. I rzeczywiście, większość badaczy trenuje sztuczną inteligencję, aby wprowadzać takie rzeczy, jak odróżnianie naturalnych i sztucznych wzorców rozmnażania za pośrednictwem sieci społecznościowych. Kluczowe wskaźniki, takie jak wskaźniki drzewa konwersji, czas przesyłania dalej i ogólne dane odpowiedzi, mogą być wykorzystane do identyfikacji i neutralizacji kampanii dezinformacyjnych, nawet jeśli ich źródło jest ukryte pod warstwami cyfrowego podstępu. Jednocześnie sztuczną inteligencję można wykorzystać do zarządzania innymi technologiami, takimi jak blockchain, w celu utrzymania identyfikowalnych, weryfikowalnych kanałów informacyjnych.
Faktem jest, że fałszywe wiadomości nie są nowym zjawiskiem. Od muckraking dziennikarstwa z początku 20th od stulecia wstecz do propagandy najwcześniejszych cywilizacji, oczernianie opinii publicznej jest uświęconą tradycją tradycją zarówno dla zasiadających rządów, jak i rewolucjonistów. Różnica polega na tym, że technologia cyfrowa zdemokratyzowała tę zdolność do tego stopnia, że prawie każdy może opublikować kłamstwo i obserwować, jak rozprzestrzenia się na całym świecie w ciągu kilku godzin.
Technologie takie jak AI z pewnością mogą pomóc w wyjaśnieniu tego zamieszania, ale tylko ludzie mogą w pełni zrozumieć i osądzić prawdę.