Pod koniec 2017 roku Intel wprowadzi na rynek pierwszy w branży procesor AI, służący do przetwarzania danych w sieciach neuronowych. Aktualne pytanie brzmi nie czy, lecz kiedy sztuczna inteligencja trafi do naszych domów?
Miłośnicy filmów Science Fiction na razie mogą spać spokojnie. Do scenariusza z Terminatora jeszcze daleka droga. Ale jak szacują analitycy, do 2020 roku rynek rozwiązań związanych ze sztuczną inteligencją (AI) będzie warty 46 mld dolarów. Przed szereg wychodzi Intel ze swoim układem Intel Nervana Neural Network Processor (NNP), który przygotował we współpracy… z Facebookiem.
Facebook to aktualnie największa na świecie kopalnia danych o ludzkości, które jej właściciel chce odpowiednio przetworzyć i spieniężyć. Do analizy zachowania użytkowników sieci przestają już wystarczać dostępne rozwiązania Big Data – analitycy chcą komputerów, które będą „rozumowały” bardziej jak ludzie i uczyły się. Nowe maszyny są w stanie automatycznie dopisywać kod aplikacji, w celu rozwiązywania problemów i odpowiadania na zapytania, które do tej pory wymagały olbrzymich mocy obliczeniowych i stałej ingerencji ludzkiej.
Obiecanki
Jak zawsze przy nowych technologiach, pojawia się mnóstwo obietnic dotyczących sposobu ich wykorzystania. Tym razem obiecano m.in. szybsze i skuteczniejsze diagnozowanie chorób, lepiej spersonalizowane reklamy w Social Media, bezpieczniejsze autonomiczne pojazdy czy skuteczniejsze prognozowanie pogody.
W praktyce zaś, spodziewać należy się skuteczniejszej inwigilacji czy możliwości przewidywania działań użytkownika Internetu w sieci, jak i w codziennym życiu. Analizy Facebooka i innych firm, które zaopatrzą się w odpowiedni sprzęt i dane źródłowe będą przy tym kosztowały majątek i pozwolą wytrząść z nas ostanie srebrniki trzymane w kieszeniach.
O zastosowaniach wojskowych lepiej nawet nie myśleć. Nie od dziś większe bitwy dzieją się w obszarze przepływu i dostępności do informacji niż na właściwych frontach. Pozostaje mieć nadzieję, że nowe sieci neuronowe będą pod kontrolą „tych dobrych”.
Co z grami?
Któż z nas nie miał jeszcze do czynienia z botami? Już wkrótce będą one same uczyły się choćby najdrobniejszych tricków ze strony realnych graczy. Gdy będzie trzeba, z pozoru pokażą ludzkie ułomności, by nagle zaatakować z pełną finezją i stuprocentową skutecznością. O ile w grach na jednego gracza sprytny i w 100% nieprzewidywalny przeciwnik może przynieść dodatkową frajdę, to już w przypadku gier sieciowych AI może okazać się złem absolutnym.
Sama moc obliczeniowa inteligentnej maszyny może być zlokalizowana gdzieś daleko, za oceanem, ale jej skuteczność dosięgnie graczy na całym świecie. Biorąc jednak pod uwagę ostatnie premiery Apple’a czy Huaweia – wkrótce sami kupimy sobie sprzęty uzbrojone w procesory neuronowe. Koprocesory NPU (Neural Processing Unit) trafiły już do najnowszych smartfonów, a lada chwila zagoszczą też w konsolach czy komputerach dla graczy.
Nie są to chipy stricte związane z wydajnością gier czy jakością grafiki. Mogą być jednak wykorzystane chociażby do skuteczniejszego interpretowania danych z czujników zestawów VR czy błyskawicznej analizy otoczenia pod kątem tytułów bazujących na rzeczywistości rozszerzonej. Analizując nasze zachowania dostosują parametry obrazu do warunków otoczenia, zoptymalizują transfery najistotniejszych dla nas plików, wydłużą czas pracy na akumulatorze w oparciu o informacje o realnie przez nas wykorzystywanych aplikacjach czy idealnie rozpoznają użytkownika komputera na podstawie danych z kamerki. Kuszące, prawda?
Stan obecny? Czas start!
Intel zaprezentował już pierwszy samouczący się neuromorficzny układ testowy inspirowany działaniem ludzkiego mózgu. Chip wykorzystuje dane do uczenia się i wnioskowania, dzięki czemu staje się coraz mądrzejszy bez potrzeby nauczania w tradycyjny sposób. Tego typu urządzenia mogą nauczyć się, jak wykonywać najbardziej złożone zadania poznawcze, takie jak interpretowanie rytmu serca, wykrywanie anomalii w celu zapobiegania cyberatakom czy nawet… komponowanie muzyki.
Kolejnym krokiem są komputery kwantowe (już produkowane testowo), które zamiast bitów binarnych przetwarzają tzw. bity kwantowe. W ich przypadku liczba wykonywanych obliczeń równoległych rośnie w sposób wykładniczy, a możliwości obliczeniowe są zupełnie poza zasięgiem konwencjonalnych komputerów.
Wszystko to jednak głosy z wielkich serwerowni i instytutów badawczych. Aktualne zastosowania konsumenckie wywołać mogą co najwyżej zażenowanie, jak animowana kupa Apple’a. Po innych specjalnie nie widać, że to AI – ot telefon dokładnie rozpoznał kto lub co znajduje się w kadrze i zrobił lepsze zdjęcie. To jednak tylko przedsmak zmian.
[you tube=7a58ZH63EU0]Do 2020 roku Intel planuje stukrotnie zwiększyć wydajność obecnych rozwiązań sztucznej inteligencji. Większość z nas zapewne nie zorientuje się, że ma do czynienia z NNP… i o to twórcom chodzi. Maszyny z roku na rok staną się coraz bardziej ludzkie, a my coraz bardziej przyzwyczajeni do płynącej z tego wygody. I choć trudno jest wierzyć w dramatyczne scenariusze filmowe, warto jednak w tej wygodzie zachować czujność.
Zobacz: Największe umysły tego świata stowrzyły 23 zasady rozwoju i wykorzystsania AI
Źródło: wł