GryNowości

Algorytmy AI odchudzają się, aby zmieścić się w Twojej lodówce

Sztuczna inteligencja poczynił oszałamiające postępy, ale często potrzebuje absurdalnych ilości danych i mocy komputera, aby się tam dostać. Obecnie niektórzy badacze zajmujący się sztuczną inteligencją koncentrują się na jak najbardziej wydajnej technologii.

W zeszłym tygodniu naukowcy wykazali, że możliwe jest umieszczenie potężnego algorytmu wizyjnego sztucznej inteligencji w prostym chipie komputerowym o niskim poborze mocy, który może działać przez miesiące na baterii. Ta sztuczka może pomóc wprowadzić bardziej zaawansowane możliwości sztucznej inteligencji, takie jak rozpoznawanie obrazu i głosu, do urządzeń domowych i urządzeń do noszenia, a także gadżetów medycznych i czujników przemysłowych. Może również pomóc zachować prywatność i bezpieczeństwo danych, zmniejszając potrzebę wysyłania czegokolwiek do chmury.

„Ten wynik jest dla nas bardzo ekscytujący” – mówi Song Han, adiunkt na MIT, kierujący projektem. Chociaż praca jest na razie eksperymentem laboratoryjnym, „można ją szybko przenieść na rzeczywiste urządzenia” – mówi Han.

Mikrokontrolery to stosunkowo proste, niedrogie i energooszczędne chipy komputerowe znajdujące się w miliardach produktów, w tym w silnikach samochodowych, elektronarzędziach, pilotach do telewizorów i implantach medycznych.

obraz artykułu

Przewodnik WIRED po sztucznej inteligencji

Inteligentne algorytmy nie podejmą wszystkich zadań, ale uczą się szybciej niż kiedykolwiek, robiąc wszystko, od diagnostyki medycznej po wyświetlanie reklam.

Naukowcy zasadniczo wymyślili sposób na ograniczenie algorytmów głębokiego uczenia się, dużych programów sieci neuronowych, które luźno naśladują sposób, w jaki neurony łączą się i odpalają w mózgu. W ciągu ostatniej dekady głębokie uczenie się napędzało ogromne postępy w sztucznej inteligencji i jest podstawą obecnego boomu AI.

Algorytmy uczenia głębokiego zwykle działają na wyspecjalizowanych chipach komputerowych, które dzielą równoległe obliczenia potrzebne do efektywniejszego trenowania i obsługi sieci. Trenowanie modelu językowego znanego jako GPT-3, który jest w stanie generować przekonywujący język po wyświetleniu monitu, wymagało odpowiednika najnowocześniejszych chipów AI działających z pełnym nachyleniem przez 355 lat. Takie zastosowania doprowadziły do ​​gwałtownego wzrostu sprzedaży procesorów graficznych, chipów dobrze nadających się do głębokiego uczenia, a także rosnącej liczby chipów specyficznych dla sztucznej inteligencji do smartfonów i innych gadżetów.

Nowe podejście badawcze składa się z dwóch części. Po pierwsze, naukowcy wykorzystują algorytm do zbadania możliwych architektur sieci neuronowych, szukając takiej, która pasuje do ograniczeń obliczeniowych mikrokontrolera. Druga część to kompaktowa, wydajna pamięć podręczna biblioteki oprogramowania do obsługi sieci. Biblioteka została zaprojektowana w zgodzie z architekturą sieci, aby wyeliminować redundancję i uwzględnić brak pamięci na mikrokontrolerze. „To, co robimy, to jak znajdowanie igły w stogu siana” – mówi Han.

Naukowcy stworzyli algorytm widzenia komputerowego zdolny do identyfikacji 1000 typów obiektów na obrazach z 70-procentową dokładnością. Poprzednie najlepsze algorytmy małej mocy osiągały tylko około 54 procent dokładności. Wymagało to również 21 procent pamięci i zmniejszyło opóźnienia o 67 procent w porównaniu z istniejącymi metodami. Zespół wykazał podobną wydajność dla algorytmu głębokiego uczenia, który nasłuchuje określonego „słowa budzącego” w źródle audio. Han mówi, że dalsze ulepszenia powinny być możliwe poprzez udoskonalenie stosowanych metod.

Sylwetka człowieka i robota gra w karty

Sekret uczenia maszynowego? Nauczyciele

„To naprawdę imponujące” – mówi Jae-sun Seo, profesor nadzwyczajny na Arizona State University, który zajmuje się uczeniem maszynowym o ograniczonych zasobach.

„Zastosowania komercyjne mogą obejmować inteligentne okulary, urządzenia rzeczywistości rozszerzonej, które w sposób ciągły obsługują wykrywanie obiektów” – mówi Seo. „Oraz urządzenia brzegowe z rozpoznawaniem mowy na urządzeniu bez łączenia się z chmurą”.

John Cohn, badacz z MIT-IBM Watson AI Research Group i członek zespołu odpowiedzialnego za prace, mówi, że niektórzy klienci IBM są zainteresowani wykorzystaniem tej technologii. Mówi, że jednym z oczywistych zastosowań byłyby czujniki zaprojektowane do przewidywania problemów z maszynami przemysłowymi. Obecnie czujniki te muszą być połączone w sieć bezprzewodową, aby obliczenia mogły być wykonywane zdalnie, w bardziej wydajnym systemie.

Innym ważnym zastosowaniem mogą być wyroby medyczne. Han mówi, że rozpoczął współpracę z kolegami z MIT nad urządzeniami wykorzystującymi uczenie maszynowe do ciągłego monitorowania ciśnienia krwi.


Więcej świetnych historii WIRED

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook