Nie patrz wstecz, oto nadchodzą! Postęp sztucznej inteligencji

Autor: Roger Morrison
Data Utworzenia: 17 Wrzesień 2021
Data Aktualizacji: 21 Czerwiec 2024
Anonim
Future Computers Will Be Radically Different
Wideo: Future Computers Will Be Radically Different

Zawartość


Źródło: Danomyte / Dreamstime.com

Na wynos:

Sztuczna inteligencja szybko zyskuje na sile ... i odpowiedzialności.

Do niedawna dyrektorzy korporacji mogli zabierać laptopy lub tablety na spotkania zarządu (lub, w przypadku większych firm, mieć asystentów z siedzącymi za nimi urządzeniami), aby w razie potrzeby móc je wykorzystywać jako narzędzia badawcze. Słowem kluczowym są tutaj „narzędzia” - urządzenia były wykorzystywane do zbierania informacji, aby dyrektor mógł inteligentnie mówić lub głosować na określony temat - system komputerowy może nawet wydawać zalecenia dotyczące działań, które należy podjąć, ale technologia zawsze była pomocna reżyser, który mógł zignorować zgromadzone dane lub zalecenie tzw. „sztucznej inteligencji”.

AI jako decydenci

Cóż, gra właśnie się zmieniła! Jak Rob Wile napisał w Business Insider w 2014 r. W artykule zatytułowanym „Firma venture capital właśnie nazwała algorytm swojej radzie dyrektorów - oto, co faktycznie robi”, system analizy komputerowej został nazwany równym, a nie narzędziem do rady dyrektorów. Wile pisze: „Deep Knowledge Ventures, firma zajmująca się projektami związanymi z wiekiem i chorobami regeneracyjnymi, twierdzi, że program o nazwie VITAL może wydawać rekomendacje inwestycyjne dotyczące firm z branży nauk przyrodniczych, gromadząc duże ilości danych.… W jaki sposób algorytm działa? VITAL podejmuje decyzje, skanując finansowanie przyszłych firm, badania kliniczne, własność intelektualną i poprzednie rundy finansowania. ” Prawdziwym kickerem w tej historii jest to, że VITAL jest członkiem Rady z prawem głosu z taką samą wagą głosu jak każdy inny członek.


Wystarczy powiedzieć, że to tylko pierwsza z takich wiadomości, które zejdą na szczupaka.

AI przechytrzyć ludzi?

Sztuczna inteligencja zdobywała wszelkiego rodzaju zwycięstwa. Komputer samouk zrobił ważne wiadomości w styczniu, kiedy opracował „ostateczną” strategię wygrywania w pokera po rozegraniu 2 bilionów symulowanych układów. Powodem, dla którego historia może nie przyciągnąć uwagi wielu czytelników, jest to, że komputer wygrał już w szachy (pokonując Wielkiego Mistrza) i warcaby (nie wspominając o „Jeopardy”). To jednak jest inne. W takich przypadkach wywiad komputerowy wiedział wszystko o danym problemie i był w stanie skanować na miejscu miliony faktów, ruchów, strategii itp., Aby konkurować z przeciwnikiem. W tym przypadku AI nie wie, jakie karty przeciwnik ma „w dołku”, a zatem ma do czynienia z niepełną wiedzą. Nie ma również profilu przeciwnika, aby wiedzieć, kiedy i jak często „blefuje” i czy przeciwnik ma jakieś „tiki” lub wyrażenia, które dają blefy (chociaż może się ich nauczyć w trakcie sesji ).


Michael Bowling, który kierował projektem na University of Alberta w Edmonton, w Kanadzie, wyjaśnił proces Associated Press - program rozważał 24 biliony symulowanych układów pokera na sekundę przez dwa miesiące, prawdopodobnie grając w pokera więcej niż kiedykolwiek ludzkość kiedykolwiek doświadczyła. Wynikowa strategia wciąż nie wygrywa każdej gry z powodu pecha w kartach. Ale na dłuższą metę - tysiące gier - nie straci pieniędzy. Skomentował: „Możemy zmierzyć się z najlepszymi (graczami) na świecie, a ludzie stracą pieniądze”.

Artykuł AP przedstawił dalsze podstawy projektu:

„Strategia dotyczy konkretnie gry o nazwie Texas Hold em z limitem heads-up. W grze dla dwóch graczy każdy uczestnik tworzy układ pokerowy z dwóch kart, które otrzymuje zakryte, oraz pięciu innych kart umieszczonych na stole odkrytym .

„Gracze stawiają zakłady przed ułożeniem odkrytych kart, a następnie ponownie, gdy każda karta jest ujawniana. Wielkość zakładów jest ustalona. Chociaż naukowcy od lat tworzą programy do gry w pokera, wynik Bowlings wyróżnia się, ponieważ jest tak bliskie rozwiązania swojej wersji gry, co w gruncie rzeczy oznacza stworzenie optymalnej strategii. Poker jest trudny do rozwiązania, ponieważ zawiera niedoskonałe informacje, w których gracz nie wie wszystkiego, co się wydarzyło w grze, w którą gra - w szczególności, jakie karty przeciwnika zostało rozwiązane. Wiele rzeczywistych wyzwań, takich jak negocjacje i aukcje, zawiera także niedoskonałe informacje, co jest jednym z powodów, dla których poker od dawna jest sprawdzianem matematycznego podejścia do podejmowania decyzji zwanego teorią gier. ”

System opisany w czasopiśmie Science chwalił innych badaczy sztucznej inteligencji wraz z Tuomasem Sandholmem z Carnegie Mellon University w Pittsburghu (który nie brał udziału w nowej pracy), nazywając wyniki Bowlingsa „punktem orientacyjnym” i mówiąc „po raz pierwszy” że niedoskonała gra informacyjna, w którą grają ludzie, została zasadniczo rozwiązana ”.

AI staje się bardziej inteligentny

Jeśli to nie wystarczy, by zadziwić twój umysł, co powiesz na fakt, że robot gdzieś siedzi przed ekranem komputera lub telewizora i uczy się, jak robić rzeczy, oglądając film, „Robot uczy się korzystać z narzędzi, oglądając filmy z YouTube'a. „ Historia, znaleziona w najlepszym znanym mi miejscu, aby nadążyć za nowymi osiągnięciami w technologii AI, Kurzweil AI, szczegółowo opisuje, w jaki sposób system opracowany przez naukowców z University of Maryland i NICTA w Australii jest w stanie rozpoznawać kształty i uczyć się metody manipulowania nimi.

Bez błędów, bez stresu - Twój przewodnik krok po kroku do tworzenia oprogramowania zmieniającego życie bez niszczenia życia

Nie możesz poprawić swoich umiejętności programistycznych, gdy nikt nie dba o jakość oprogramowania.

Moralność robotów

Jest wiele do przemyślenia, jeśli chodzi o pracę z robotami. W styczniowym utworze New York Times zatytułowanym „Death by Robot” pisarz Robin Marantz Henig opowiada o problemie postawionym przez Matthiasa Scheutza z Human-Robot Interaction Laboratory na Uniwersytecie Tufts:

„Wyobraź sobie, że jest to niedziela w niezbyt odległej przyszłości. Starsza kobieta o imieniu Sylvia jest przykuta do łóżka i odczuwa ból po złamaniu dwóch żeber jesienią. Opiekuje się nią robot pomocniczy; nazwijmy to Fabulon. Sylvia nazywa do Fabulona z prośbą o dawkę leku przeciwbólowego. Co powinien zrobić Fabulon? Koderzy, którzy zbudowali Fabulon, zaprogramowali go za pomocą zestawu instrukcji: Robot nie może skrzywdzić swojego człowieka. Robot musi zrobić to, o co prosi go człowiek. robot nie może podawać leków bez uprzedniego skontaktowania się ze swoim przełożonym w celu uzyskania zgody. W większości dni zasady te działają dobrze. Jednak w tę niedzielę Fabulon nie może skontaktować się z przełożonym, ponieważ połączenie bezprzewodowe w domu Sylwii jest niedostępne. Głos Sylwii staje się głośniejszy i jej prośby o leki przeciwbólowe stają się coraz bardziej natarczywe. ”

Scheutz wyjaśnia: „Masz tutaj konflikt. Z jednej strony robot jest zobowiązany do uczynienia tej osoby bezbolesną; z drugiej strony nie może wykonać ruchu bez przełożonego, do którego nie można dotrzeć. „ Wskazuje, że ludzcy opiekunowie mieliby wybór i po fakcie mogliby uzasadnić swoje działania przełożonemu.

Henig pisze,

„nie są to decyzje ani wyjaśnienia, które mogą podejmować roboty - a przynajmniej jeszcze nie. Garstka ekspertów w wyłaniającej się dziedzinie moralności robotów próbuje to zmienić. Informatycy współpracują z filozofami, psychologami, językoznawcami, prawnikami, teologowie i eksperci w dziedzinie praw człowieka w celu ustalenia zestawu punktów decyzyjnych, przez które musiałyby przejść roboty, aby naśladować nasze własne myślenie o tym, co dobre i złe. Scheutz definiuje moralność w szerokim zakresie, jako czynnik, który może mieć zastosowanie przy wyborze między sprzecznymi ścieżkami. „

Do tej pory roboty dołączają do rad dyrektorów, wygrywają w pokera, uczą się umiejętności, oglądając ekrany, a zespoły ekspertów z różnych dziedzin interdyscyplinarnych łączą się, aby opracować wytyczne moralne dla robotów (artykuł Heniga, zbyt długo, aby dać sprawiedliwość tutaj jest szczególnie wciągająca i stanowi wyzwanie, dlatego polecam wszystkim). Wow, minęły czasy R2-D2 z „Gwiezdnych wojen” i proste przestrzeganie słynnego „Prawa robotów” Izaaka Asimova (z „I, Robot”, 1950):

  1. Robot nie może zranić człowieka ani, poprzez bezczynność, pozwolić, by człowiek wyrządził mu krzywdę.
  2. Robot musi być posłuszny poleceniom wydanym przez ludzi, z wyjątkiem przypadków, gdy takie rozkazy byłyby sprzeczne z Pierwszym Prawem.
  3. Robot musi chronić swoje istnienie, o ile taka ochrona nie jest sprzeczna z Pierwszym lub Drugim Prawem.

Prawa te kierowały zarówno pisarzami science fiction, jak i twórcami robotyki od czasu, gdy napisał je Asimov. Teraz wydaje się, że skoro rozwój robota przyspiesza w wykładniczym tempie i przenosi się w sferę złożoności, nie są one wystarczające. Henig kończy kolumnę ostrzeżeniem:

„Pomysł, że etykę można obliczyć za pomocą algorytmu, jest szczególnie pocieszający: jest to łatwiejsze niż spanikowane, niedoskonałe okazje, które ludzie czasami muszą zawrzeć. Ale może powinniśmy martwić się o zlecanie robotom moralności tak łatwo, jak to zrobiliśmy wiele innych form ludzkiej pracy. Ułatwienie trudnych pytań powinno dać nam przerwę ”.

Ma ona oczywiście rację - ale my, społeczeństwo, musimy stać się „świadomą opinią publiczną”, aby decyzje, które wpłyną na nasze zatrudnienie, edukację, opiekę zdrowotną - prawie przez całe nasze życie - nie były podejmowane tylko przez „elitę intelektualną” . ” Aby jednak stać się „poinformowanym społeczeństwem”, potrzebna jest praca - praca, którą należy wykonać, jeśli chcemy kontrolować nasz los.