Czy AI może pomóc w walce z fałszywymi wiadomościami?

Autor: Roger Morrison
Data Utworzenia: 27 Wrzesień 2021
Data Aktualizacji: 1 Lipiec 2024
Anonim
Czy AI może pomóc w walce z fałszywymi wiadomościami? - Technologia
Czy AI może pomóc w walce z fałszywymi wiadomościami? - Technologia

Zawartość

P:

Czy AI może pomóc w walce z fałszywymi wiadomościami, czy może tylko pogarsza sytuację?


ZA:

Sztuczna inteligencja (AI) i fałszywe wiadomości wydają się być ze sobą nierozerwalnie związane. Z jednej strony krytycy najnowszych technologii twierdzą, że sztuczna inteligencja i procesy automatyzacji przyczyniły się do uwolnienia bezradnej publiczności apokalipsy rażąco fałszywych historii. Z drugiej strony, niektóre z najlepszych umysłów naukowych na tej planecie, w nieustannej pogoni za prawdą, już opracowują nowe rozwiązania oparte na sztucznej inteligencji, które mogą wykrywać kłamliwe historie. Czy sprostają wyzwaniu?

Prawdę mówiąc, jest jeszcze za wcześnie, aby udzielić konkretnej odpowiedzi, ponieważ technologie te są obecnie opracowywane. Łatwo jednak zrozumieć, jak duże są inwestycje, które przyciągają niektóre z największych potęg mediów społecznościowych i wydawców treści. Google sam niedawno ogłosił, że platforma Google News zamierza wdrożyć potężne oprogramowanie do uczenia maszynowego, aby odrzucić wprowadzające w błąd materiały.


Jednym z podstawowych powodów, dla których fałszywe wiadomości szybko przerodziły się w epidemię, jest to, że są prezentowane w sposób bardziej atrakcyjny lub angażujący czytelników / widzów. Niektóre AI oparte są na tym założeniu, a ich algorytmy uczenia maszynowego są już od lat szkolone w walce ze spamem i phishingiem.

Ta metoda jest obecnie testowana przez grupę ekspertów znanych jako Fake News Challenge, którzy zgłosili się do krucjaty przeciwko fałszywym wiadomościom. Ich AI działa poprzez wykrywanie postawy, oszacowanie względnej perspektywy (lub postawy) ciała artykułu w porównaniu z nagłówkiem. Dzięki możliwościom analizy AI może ocenić prawdopodobieństwo, że został napisany przez prawdziwego człowieka, a nie spambota, porównując rzeczywistą treść z nagłówkiem. To dosłownie dobra sztuczna inteligencja kontra zła sztuczna inteligencja, a jeśli to brzmi jak Autoboty kontra Decepticony - cóż, właśnie tak jest.


Inna metoda obejmuje automatyczne i szybkie porównanie wszystkich podobnych wiadomości publikowanych w wielu mediach, aby sprawdzić, jak różne są przedstawione fakty. Idealnie, jeśli konkretna strona internetowa rozpowszechnia fałszywe wiadomości, może być oznaczona jako niewiarygodne źródło i wykluczona z kanałów informacyjnych. Google News prawdopodobnie zastosuje tę metodę, ponieważ ogłoszono, że będzie pobierać treści z niektórych „jeszcze wiarygodnych źródeł”, które zostaną jeszcze zdefiniowane. W ten sposób ludzie zostaną odepchnięci od ekstremalnych treści - takich jak to, co wydarzyło się na YouTube z płaskimi Ziemiami - i skierowani na właściwie zdefiniowane „wiarygodne źródła”.

Na koniec można zastosować inne prostsze algorytmy do analizy rażącej gramatyki, interpunkcji i błędów ortograficznych, wykrycia fałszywych lub sfabrykowanych zdjęć i sprawdzenia zdekomponowanych elementów semantycznych artykułu w sprawdzonych źródłach.