Nowości

Ta sztuczna inteligencja może przejść od „sztuki” do kierowania autonomicznym samochodem

Prawdopodobnie nigdy zastanawiałem się, jak wyglądałby rycerz zrobiony ze spaghetti, ale i tak oto odpowiedź – dzięki uprzejmości nowego, sprytnego programu sztucznej inteligencji firmy OpenAI z San Francisco.

Program DALL-E, wydany na początku tego miesiąca, może tworzyć obrazy wszelkiego rodzaju dziwnych rzeczy, które nie istnieją, takich jak fotele z awokado, żyrafy robotów lub rzodkiewki w tutusie. OpenAI wygenerował kilka obrazów, w tym rycerza spaghetti, na żądanie WIRED.

DALL-E to wersja GPT-3, modelu sztucznej inteligencji wyszkolonego na tekście pobranym z sieci, który jest w stanie wygenerować zaskakująco spójny tekst. DALL-E otrzymał zdjęcia i towarzyszące im opisy; w odpowiedzi może wygenerować przyzwoity obraz typu mashup.

Obrazy stworzone przez DALL-E w odpowiedzi na „ilustrację przedstawiającą małą rzodkiewkę daikon w tutu wyprowadzającej psa”.

Dzięki uprzejmości OpenAI

Pranksterzy szybko dostrzegli zabawną stronę DALL-E, zauważając na przykład, że może wyobrazić sobie nowe rodzaje brytyjskiego jedzenia. Jednak DALL-E opiera się na ważnym postępie w dziedzinie widzenia komputerowego opartego na sztucznej inteligencji, który może mieć poważne i praktyczne zastosowania.

Nazywany CLIP, składa się z rozległej sztucznej sieci neuronowej – algorytmu inspirowanego sposobem, w jaki uczy się mózg – wprowadził setki milionów obrazów i towarzyszących im podpisów tekstowych z sieci i wyszkolony w zakresie przewidywania prawidłowych etykiet dla obrazu.

Badacze z OpenAI odkryli, że CLIP może rozpoznawać obiekty tak dokładnie, jak algorytmy trenowane w zwykły sposób – przy użyciu wyselekcjonowanych zestawów danych, w których obrazy są starannie dopasowane do etykiet.

W rezultacie CLIP może rozpoznać więcej rzeczy i może uchwycić, jak pewne rzeczy wyglądają, bez potrzeby stosowania wielu przykładów. CLIP pomógł firmie DALL-E w stworzeniu grafiki, automatycznie wybierając najlepsze obrazy spośród wygenerowanych. OpenAI opublikował artykuł opisujący działanie CLIP, a także małą wersję powstałego programu. Nie opublikowano jeszcze dokumentu ani żadnego kodu dla DALL-E.

obraz artykułu

Przewodnik WIRED po sztucznej inteligencji

Inteligentne algorytmy nie podejmą wszystkich zadań, ale uczą się szybciej niż kiedykolwiek, robiąc wszystko, od diagnostyki medycznej po wyświetlanie reklam.

Zarówno DALL-E, jak i CLIP są „super imponujące” – mówi Karthik Narasimhan, adiunkt w Princeton, specjalizujący się w wizji komputerowej. Mówi, że CLIP opiera się na wcześniejszych pracach, które miały na celu trenowanie dużych modeli AI przy użyciu obrazów i tekstu jednocześnie, ale robi to na niespotykaną dotąd skalę. „CLIP to wielkoskalowa demonstracja możliwości korzystania z bardziej naturalnych form nadzoru – sposobu, w jaki mówimy o rzeczach” – mówi.

Mówi, że CLIP może być komercyjnie użyteczny na wiele sposobów, od poprawy rozpoznawania obrazu używanego w wyszukiwaniu w Internecie i analizie wideo, po uczynienie robotów lub pojazdów autonomicznych bardziej inteligentnymi. CLIP może posłużyć jako punkt wyjścia dla algorytmu, który pozwala robotom uczyć się na podstawie obrazów i tekstu, takich jak instrukcje obsługi – mówi. Może też pomóc autonomicznemu samochodowi rozpoznać pieszych lub drzewa w nieznanym otoczeniu.

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook