GryNowościOprogramowanie

Dziś dowiedziałem się o suwakach Intel AI, które filtrują nadużycia w grach online

W zeszłym miesiącu, podczas wirtualnej prezentacji GDC, Intel ogłosił Bleep, nowe narzędzie oparte na sztucznej inteligencji, które, ma nadzieję, ograniczy ilość toksyn, których gracze muszą doświadczyć podczas czatu głosowego. Według firmy Intel aplikacja „wykorzystuje sztuczną inteligencję do wykrywania i redagowania dźwięku na podstawie preferencji użytkownika”. Filtr działa na przychodzący dźwięk, działając jako dodatkowa warstwa moderacji kontrolowana przez użytkownika, oprócz tego, co oferuje już platforma lub usługa.

To szlachetny wysiłek, ale jest coś ponuro zabawnego w interfejsie Bleep, który zawiera najdrobniejsze szczegóły wszystkich różnych kategorii nadużyć, z którymi ludzie mogą się spotkać w Internecie, w połączeniu z suwakami, aby kontrolować ilość złego traktowania, które użytkownicy chcą usłyszeć. Kategorie wahają się od „agresji” po „LGBTQ + nienawiść”, „mizoginia”, „rasizm i ksenofobia” oraz „biały nacjonalizm”. Jest nawet przełącznik dla słowa N. Strona Bleep zauważa, że ​​jeszcze nie weszła do publicznej wersji beta, więc wszystko to może ulec zmianie.

Filtry obejmują „Agresja”, „Mizoginia” …
Kredyt: Intel

… i przełącznik dla „słowa na N”.
: Intel

W przypadku większości tych kategorii Bleep wydaje się dawać użytkownikom wybór: czy nie chcesz, aby żaden, część, większość czy całość tego obraźliwego języka nie zostały odfiltrowane? Podobnie jak w przypadku wyboru z bufetu toksycznej szlamu internetowego, interfejs Intela daje graczom możliwość dodania lekkiej porcji agresji lub wyzwisk do gry online.

Bleep działa już od kilku lat – PCMag zauważa, że ​​Intel mówił o tej inicjatywie już na GDC 2019 – i współpracuje ze specjalistami ds. moderacji AI, Spirit AI, nad oprogramowaniem. Jednak moderowanie przestrzeni internetowych za pomocą sztucznej inteligencji nie jest łatwym zadaniem, jak pokazały platformy takie jak Facebook i YouTube. Chociaż zautomatyzowane systemy potrafią zidentyfikować bezpośrednio obraźliwe słowa, często nie uwzględniają kontekstu i niuansów niektórych obelg i gróźb. Toksyczność online występuje w wielu stale ewoluujących formach, które mogą być trudne do wykrycia nawet dla najbardziej zaawansowanych systemów moderowania SI.

„Chociaż zdajemy sobie sprawę, że rozwiązania takie jak Bleep nie usuwają problemu, uważamy, że jest to krok we właściwym kierunku, dając graczom narzędzie do kontrolowania ich doświadczeń” – powiedział Roger Chandler z Intela podczas prezentacji GDC. Intel twierdzi, że ma nadzieję wydać Bleep jeszcze w tym roku, i dodaje, że technologia opiera się na sprzętowym wykrywaniu mowy AI, co sugeruje, że oprogramowanie może działać na sprzęcie Intela.

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook