NowościTelefony

AI może teraz prowadzić spotkania w pracy

Headroom to jedna z kilku aplikacji reklamujących sztuczną inteligencję jako rozwiązanie dla niechlujnych spotkań wirtualnych / wideo.
Powiększać / Headroom to jedna z kilku aplikacji reklamujących sztuczną inteligencję jako rozwiązanie dla niechlujnych spotkań wirtualnych / wideo.

Julian Green wyjaśniał duży problem ze spotkaniami, gdy nasze spotkanie zaczęło się zakłócać. Piksele jego twarzy zmieniły się. Zdanie wyszło jako czkawka. Potem prychnął, zamarł i ujrzał ducha.

Green i ja rozmawialiśmy na Headroom, nowej platformie wideokonferencyjnej, którą on i współzałożyciel Andrew Rabinovich uruchomili tej jesieni. Zapewnili mnie, że usterka nie była spowodowana ich oprogramowaniem, ale połączeniem Wi-Fi Greena. „Myślę, że reszta mojej ulicy to zajęcia w domu”, powiedział, problem, którego Headroom nie został stworzony do rozwiązania. Został zbudowany z myślą o innych kwestiach: nudności robienia notatek, współpracownikach, którzy bez przerwy dronują, oraz trudności w utrzymaniu zaangażowania wszystkich. Kiedy rozmawialiśmy, oprogramowanie wystukało transkrypcję w czasie rzeczywistym w oknie obok naszych twarzy. Na bieżąco zapisywał, ile słów wypowiedziała każda osoba (dominował Rabinowicz). Po zakończeniu naszego spotkania oprogramowanie Headroom mogło zsyntetyzować koncepcje z transkrypcji; zidentyfikować kluczowe tematy, daty, pomysły i działania; i wreszcie wypluć zapis, który można przeszukać później. Próbowałby nawet zmierzyć, jak bardzo każdy uczestnik zwracał uwagę.

Spotkania stały się złem koniecznym współczesnego miejsca pracy, obejmując rozbudowaną taksonomię: codzienne wstawanie, siady, ręce, jeden na jeden, brązowe torby, kontrole statusu, burze mózgów, podsumowania, przeglądy projektów. Jednak wraz z upływem czasu spędzonego na tych korporacyjnych konklawach, praca wydaje się cierpieć. Badacze odkryli, że spotkania korelują ze spadkiem zadowolenia w miejscu pracy, produktywności, a nawet udziału w rynku firmy. W roku, w którym tak wiele interakcji biurowych przeszło na technologię cyfrową, zwykłe nudy związane z kulturą spotkań są potęgowane przez napady i początki telekonferencji.

Niedawno pojawiła się nowa fala startupów, które optymalizują te spotkania za pomocą technologii. Makro („daj swojemu spotkaniu supermoce”) tworzy wspólny interfejs dla Zoom. Mmhmm ​​oferuje prezenterom interaktywne tła i narzędzia do udostępniania slajdów. Fireflies, narzędzie do transkrypcji AI, integruje się z popularnymi platformami wideokonferencyjnymi, aby utworzyć przeszukiwalny zapis każdego spotkania. Sidekick („spraw, aby Twój zespół zdalny znów poczuł się blisko”) sprzedaje dedykowany tablet do rozmów wideo.

Ideą Headroom, która została stworzona przed pandemią, jest poprawa zarówno osobistych, jak i wirtualnych problemów ze spotkaniami, z wykorzystaniem sztucznej inteligencji. (Rabinovich kierował sztuczną inteligencją w Magic Leap.) Korzystanie z wideokonferencji wzrosło już przed 2020 rokiem; w tym roku eksplodował, a Green i Rabinovich zakładają, że ten format pozostanie, ponieważ coraz więcej firm przyzwyczaja się do zatrudniania zdalnych pracowników. Jednak w ciągu ostatnich dziewięciu miesięcy wiele osób przekonało się z pierwszej ręki, że wirtualne spotkania niosą ze sobą nowe wyzwania, takie jak interpretowanie mowy ciała innych osób na ekranie lub ustalanie, czy ktoś faktycznie słucha.

„Jedną z najtrudniejszych rzeczy podczas wideokonferencji jest to, że ktoś mówi i chcę mu powiedzieć, że mi się podoba” – mówi Green. Osobiście, mówi, „możesz skinąć głową lub zrobić małą Aha. ” Ale na czacie wideo prelegent może nie zobaczyć, czy prezentuje slajdy, czy spotkanie jest zatłoczone zbyt wieloma kwadratami lub czy wszyscy, którzy przekazują wskazówki werbalne, są wyciszeni. „Nie możesz stwierdzić, czy to świerszcze, czy ludzie je uwielbiają”.

Headroom ma na celu zmniejszenie dystansu społecznego wirtualnych spotkań na kilka sposobów. Po pierwsze, wykorzystuje wizję komputerową do tłumaczenia zatwierdzających gestów na cyfrowe ikony, wzmacniając każdy kciuk w górę lub kiwając głową małymi emoji, które może zobaczyć mówca. Te emotikony są również dodawane do oficjalnej transkrypcji, która jest automatycznie generowana przez oprogramowanie, aby oszczędzić komuś robienia notatek. Green i Rabinovich twierdzą, że ten rodzaj monitorowania jest jasny dla wszystkich uczestników na początku każdego spotkania, a zespoły mogą zrezygnować z funkcji, jeśli zechcą.

Co więcej, oprogramowanie Headroom wykorzystuje rozpoznawanie emocji do okresowego pomiaru temperatury w pomieszczeniu i mierzenia, ile uwagi uczestnicy poświęcają temu, kto mówi. Wskaźniki te są wyświetlane w oknie na ekranie, zaprojektowanym głównie w celu zapewnienia mówcy informacji zwrotnej w czasie rzeczywistym, która czasami może zniknąć w kontekście wirtualnym. „Jeśli pięć minut temu wszyscy byli super w tym, co mówię, a teraz nie, może powinienem pomyśleć o zamknięciu się” – mówi Green.

Rozpoznawanie emocji to wciąż rodząca się dziedzina sztucznej inteligencji. „Celem jest po prostu próba odwzorowania wyrazu twarzy uchwyconego przez punkty orientacyjne twarzy: uniesienie brwi, kształt ust, otwarcie źrenic” – mówi Rabinovich. Każdy z tych ruchów twarzy można przedstawić jako dane, które w teorii można następnie przełożyć na emocje: radość, smutek, znudzenie, zagubienie. W praktyce proces rzadko jest tak prosty. Oprogramowanie do rozpoznawania emocji miało historię błędnego oznaczania osób kolorowych; jeden program, używany przez ochronę na lotniskach, przecenił, jak często Czarni mężczyźni okazywali negatywne emocje, takie jak „złość”. Obliczenia afektywne nie uwzględniają również wskazówek kulturowych w kontekście, na przykład tego, czy ktoś odwraca wzrok z szacunku, wstydu lub nieśmiałości.

Dla celów Headrooma Rabinovich twierdzi, że te nieścisłości nie są tak ważne. „Mniej obchodzi nas, czy jesteś szczęśliwy, czy super szczęśliwy, na tyle długo, że jesteśmy w stanie stwierdzić, czy jesteś zaangażowany” – mówi Rabinovich. Ale Alice Xiang, szefowa badań nad uczciwością, przejrzystością i odpowiedzialnością w Partnership on AI, twierdzi, że nawet podstawowe rozpoznawanie twarzy nadal ma problemy – takie jak niemożność wykrycia, kiedy Azjaci mają otwarte oczy – ponieważ często są szkoleni na białych twarzach. „Jeśli masz mniejsze oczy lub zakryte oczy, może się zdarzyć, że rozpoznawanie twarzy wykaże, że ciągle patrzysz w dół lub zamykasz oczy, gdy nie jesteś” – mówi Xiang. Tego rodzaju rozbieżności mogą mieć rzeczywiste konsekwencje, ponieważ oprogramowanie do rozpoznawania twarzy zyskuje coraz szersze zastosowanie w miejscu pracy. Headroom nie jest pierwszym, który wprowadza takie oprogramowanie do biura. HireVue, firma rekrutacyjna zajmująca się technologią, niedawno wprowadziła oprogramowanie do rozpoznawania emocji, które sugeruje „szanse na zatrudnienie” kandydata do pracy w oparciu o takie czynniki, jak ruchy twarzy i głos.

Constance Hadley, badaczka z Questrom School of Business na Boston University, mówi, że gromadzenie danych na temat zachowań ludzi podczas spotkań może ujawnić, co działa, a co nie działa w ramach tej konfiguracji, co może być przydatne zarówno dla pracodawców, jak i pracowników. Ale kiedy ludzie wiedzą, że ich zachowanie jest monitorowane, może to zmienić ich zachowanie w niezamierzony sposób. „Jeśli monitorowanie służy do zrozumienia istniejących wzorców, to świetnie” – mówi Hadley. „Ale jeśli jest używany do zachęcania do pewnych typów zachowań, może w końcu wywołać zachowania dysfunkcyjne”. Na zajęciach Hadley, kiedy uczniowie wiedzą, że 25 procent oceny to uczestnictwo, uczniowie częściej podnoszą ręce, ale niekoniecznie mówią ciekawsze rzeczy. Kiedy Green i Rabinovich zademonstrowali mi swoje oprogramowanie, uniosłem brwi, rozszerzyłem oczy i uśmiechałem się maniakalnie, aby zmienić poziom postrzeganych emocji.

W ocenie Hadleya gdy prowadzenie spotkań jest równie ważne jak w jaki sposób. Źle zaplanowane spotkania mogą pozbawić pracowników czasu na wykonywanie własnych zadań, a zalew spotkań może sprawić, że ludzie poczują się, jakby tracili czas, tonąc w pracy. Oczywiście istnieją również rozwiązania programowe. Clockwise, platforma zarządzania czasem AI uruchomiona w 2019 roku, wykorzystuje algorytm do optymalizacji czasu spotkań. „Czas stał się wspólnym dobrem firmy, a nie dobrem osobistym” – mówi Matt Martin, założyciel Clockwise. „Ludzie równoważą wszystkie te różne wątki komunikacji, prędkość wzrosła, wymagania współpracy są bardziej intensywne. A jednak sednem tego wszystkiego jest to, że nie ma narzędzia, które można by wyrazić: „To jest czas, którego potrzebuję, aby właściwie wykonać swoją pracę. Nie rozpraszaj mnie! ‘”

Zgodnie z ruchem wskazówek zegara synchronizuje się z czyimś kalendarzem Google, aby analizować, jak spędzają czas i jak mogą to robić bardziej optymalnie. Oprogramowanie dodaje ochronne bloki czasowe w oparciu o określone preferencje osoby. Może to zarezerwować trochę czasu „nie przeszkadzać” na popołudniową pracę. (Automatycznie blokuje również czas na lunch. „Choć brzmi to głupio, robi to wielką różnicę” – mówi Martin). Analizując wiele kalendarzy w ramach tej samej siły roboczej lub zespołu, oprogramowanie może automatycznie przenosić spotkania jak „zespół synchronizacja ”lub„ cotygodniowe 1×1 ”w przedziałach czasowych, które działają dla wszystkich. Oprogramowanie jest optymalizowane pod kątem tworzenia bardziej nieprzerwanych bloków czasu, w których pracownicy mogą bez rozpraszania się zająć „głęboką pracą”.

Clockwise, który wystartował w 2019 roku, właśnie zamknął rundę finansowania w wysokości 18 milionów dolarów i twierdzi, że zyskuje na popularności w Dolinie Krzemowej. Jak dotąd ma 200 000 użytkowników, z których większość pracuje dla firm takich jak Uber, Netflix i Twitter; około połowa jego użytkowników to inżynierowie. Headroom podobnie zabiega o klientów z branży technologicznej, gdzie Green i Rabinovich czują, że najlepiej rozumieją problemy związane ze spotkaniami. Nietrudno jednak wyobrazić sobie podobne oprogramowanie wkradające się poza bańkę w Dolinie Krzemowej. Green, który ma dzieci w wieku szkolnym, był zirytowany częściami ich doświadczeń związanych z nauką na odległość. Na ich zajęciach jest 20 uczniów, a nauczyciel nie widzi ich wszystkich na raz. „Jeśli nauczyciel prezentuje slajdy, faktycznie widzą Żaden z nich – mówi. „Nawet nie widzą, czy dzieci mają podniesione ręce, żeby zadać pytanie”.

Rzeczywiście, telekonferencje nie ograniczają się do biur. Ponieważ coraz więcej interakcji jest zapośredniczonych przez ekrany, więcej narzędzi programowych z pewnością będzie próbowało zoptymalizować wrażenia. Inne problemy, takie jak opóźnione Wi-Fi, będą rozwiązywane przez kogoś innego.

Ta historia pojawiła się po raz pierwszy na wired.com

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook