Dlaczego obliczenia kwantowe mogą być kolejnym zakrętem na autostradzie Big Data

Autor: Judy Howell
Data Utworzenia: 27 Lipiec 2021
Data Aktualizacji: 11 Móc 2024
Anonim
Fizyka od podstaw: Pierwsza zasada dynamiki Newtona i bezwładność ciał,  dlaczego zapinamy pasy!?
Wideo: Fizyka od podstaw: Pierwsza zasada dynamiki Newtona i bezwładność ciał, dlaczego zapinamy pasy!?

Zawartość


Źródło: Krishnacreations / Dreamstime.com

Na wynos:

Technologia komputerowa postępuje tą samą ścieżką od dziesięcioleci, ale obliczenia kwantowe są ogromnym odstępstwem od tego, co było wcześniej.

28 września 2012 r. New York Times opublikował opowiadanie „Australijczycy w poszukiwaniu nowej klasy komputerów”, dotyczące czegoś, co wydaje się być przełomem w wyścigu o zbudowanie działającego komputera kwantowego.

Chociaż definicja komputera kwantowego będzie wskazywać na wielu czytelników, wystarczy powiedzieć, że działający komputer kwantowy będzie rewolucyjny w świecie technologii.

Technologia komputerowa leży u podstaw zmian na świecie, których doświadczyliśmy w ciągu ostatnich 50 lat - globalna gospodarka, internet, fotografia cyfrowa, robotyka, smartfony i e-handel opierają się na komputerach. Uważam więc, że ważne jest, abyśmy mieli podstawową wiedzę na temat technologii, aby zrozumieć, dokąd może nas zaprowadzić informatyka kwantowa.


Na początku istniał ENIAC

Zacznijmy więc od początku. Pierwszym działającym komputerem elektronicznym był Electronic Numerical Integrator and Computer, bardziej znany jako ENIAC. Został on opracowany w University of Pennsylvania's Moore School of Engineering przy finansowaniu przez armię USA do obliczania trajektorii strzelania w czasie II wojny światowej. (Oprócz tego, że był cudem inżynierii, ENIAC wytyczył szlak dla wielu dużych projektów informatycznych w tamtych latach, ale było już za późno na II wojnę światową, która zakończyła się przed ukończeniem komputera.)

Sercem możliwości przetwarzania ENIAC były lampy próżniowe - z tego 17 688. Ponieważ lampa próżniowa ma tylko dwa stany - wyłączony i włączony (zwany również 0/1) - komputery przyjęły arytmetykę binarną zamiast arytmetyki dziesiętnej, gdzie wartości idą od 0 do 9. Każda z tych indywidualnych reprezentacji jest nazywana bitową, skrót od „cyfra binarna”. (Aby dowiedzieć się więcej o historii ENIAC, zobacz Kobiety ENIAC: Pionierzy programowania.)


Było oczywiście konieczne, aby istniał jakiś sposób przedstawienia liczb, liter i symboli, które znamy, więc schemat kodowania zaproponowany przez American National Standards Institute (ANSI), znany jako American Standard Character Information Interchange (ASCII), w końcu stał się standardem. W ASCII łączymy 8 bitów, aby utworzyć jeden znak lub bajt, zgodnie ze z góry określonym schematem. Istnieje 256 kombinacji reprezentujących cyfry, wielkie litery, małe litery i znaki specjalne.

Zmieszany? Nie martw się - przeciętny użytkownik komputera nie musi znać szczegółów. Jest tu prezentowany tylko jako element konstrukcyjny.

Następnie komputery dość szybko przechodziły od lamp próżniowych do tranzystorów (William Shockley i jego zespół Bell Labs zdobyli Nagrodę Nobla za opracowanie tranzystorów), a następnie zdolność do umieszczenia wielu tranzystorów w jednym chipie w celu stworzenia układów scalonych. Nie trwało długo, zanim obwody te zawierały tysiące, a nawet miliony tranzystorów na jednym układzie, co nazwano integracją na bardzo dużą skalę. Te kategorie: 1) lampy próżniowe, 2) tranzystory, 3) układy scalone i 4) VLSI są uważane za cztery generacje rozwoju sprzętu, bez względu na to, ile tranzystorów można zablokować w układzie.

Bez błędów, bez stresu - Twój przewodnik krok po kroku do tworzenia oprogramowania zmieniającego życie bez niszczenia życia

Nie możesz poprawić swoich umiejętności programistycznych, gdy nikt nie dba o jakość oprogramowania.

Od czasu, gdy ENIAC „zaczął działać” w 1946 r. I przez te wszystkie pokolenia, podstawowe zastosowanie binarnej arytmetyki opartej na lampie próżniowej pozostało na miejscu. Obliczenia kwantowe stanowią radykalne odejście od tej metodologii.

Obliczenia kwantowe: wielka przerwa

Komputery kwantowe wykorzystują moc atomów i cząsteczek do przetwarzania i wykonywania zadań pamięciowych znacznie szybciej niż komputer oparty na krzemie ... przynajmniej teoretycznie. Chociaż istnieją pewne podstawowe komputery kwantowe zdolne do wykonywania określonych obliczeń, praktyczny model prawdopodobnie będzie jeszcze za kilka lat. Ale jeśli się pojawią, mogą radykalnie zmienić moc obliczeniową komputerów.

W wyniku tej mocy obliczenia kwantowe mogą znacznie poprawić przetwarzanie dużych zbiorów danych, ponieważ przynajmniej teoretycznie powinny przodować w masowo równoległym przetwarzaniu nieustrukturyzowanych danych.

Komputery kontynuowały przetwarzanie binarne z jednego powodu: naprawdę nie było powodu, aby majstrować przy czymś, co działało. W końcu szybkość przetwarzania komputera podwaja się co 18 miesięcy do dwóch lat. W 1965 r. Wiceprezydent Intela Gordon Moore napisał artykuł opisujący tak zwane prawo Moore'a, w którym stwierdził, że gęstość procesorów podwaja się co dwa lata, co powoduje podwojenie prędkości przetwarzania. Chociaż napisał, że przewiduje ten trend przez 10 lat, to - co niezwykłe - trwa do dnia dzisiejszego. (Było kilku pionierów komputerowych, którzy złamali binarną formę. Dowiedz się więcej w Dlaczego nie Ternary Computers?)

Jednak wzrost prędkości przetwarzania nie był jedynym czynnikiem poprawiającym wydajność komputera. Ulepszenia technologii pamięci masowej i pojawienie się telekomunikacji miały niemal równe znaczenie. Na początku komputerów osobistych dyskietki zawierały 140 000 znaków, a pierwszy dysk twardy, który kupiłem, zawierał 10 milionów znaków. (Kosztował mnie również 5500 USD i był tak duży jak komputer stacjonarny). Na szczęście pamięć masowa ma znacznie większą pojemność, mniejszy rozmiar, większą prędkość transferu i znacznie, dużo tańsze.

Ogromny wzrost pojemności pozwala nam gromadzić informacje w obszarach, w których albo wcześniej mogliśmy jedynie zarysować powierzchnię, albo nawet nie zagłębić się w nią. Obejmuje to tematy z dużą ilością danych, takich jak pogoda, genetyka, językoznawstwo, symulacja naukowa i badania zdrowotne, i wiele innych.

Sens dużych zbiorów danych

Coraz częściej exploity big data odkrywają, że pomimo wszystkich osiągniętych przez nas wzrostów mocy obliczeniowej, to po prostu za mało. Jeśli będziemy w stanie zrozumieć sens tej ogromnej ilości danych, które gromadzimy, będziemy potrzebować nowych sposobów ich analizy i prezentacji, a także szybszych komputerów do ich przetwarzania. Komputery kwantowe mogą nie być gotowe do działania, ale eksperci obserwują każdy ich postęp jako kolejny poziom mocy obliczeniowej komputera. Nie możemy powiedzieć z całą pewnością, ale następną dużą zmianą w technologii komputerowej może być prawdziwe odejście od krzemowych układów scalonych, które do tej pory nas prowadziły.