Robot, który rozumie, kiedy człowiek potrzebuje pomocy. To prawdziwa rewolucja!

Postęp, jaki dokonuje się w ostatnim czasie w świecie robotyki jest imponujący, ale może budzić pewne obawy. Tym razem chodzi o zaimplementowanie maszynom zdolności do rozpoznawania sytuacji, w których ludzie potrzebują pomocy.

Z perspektywy człowieka może się to wydawać błahą umiejętnością. Roboty mają jednak z tym spore problemy – jak z resztą w każdej sytuacji, w której w grę wchodzą społeczne interakcje. Aby przełamać panujący impas, naukowcy z Franklin & Marshall College postanowili zwiększyć wydajność robotów w zakresie komunikacji z ludźmi. Zaowocowało to pojawieniem się u nich zdolności do przetwarzania subtelnych wskazówek płynących z ludzkich zachowań i wnioskowania, w których sytuacjach biologicznym towarzyszom przyda się pomoc.

O jaką pomoc w ogóle chodzi? Niekoniecznie mamy na myśli ratowanie ludzi z opresji związanych z zagrożeniem życia. W grę wchodzi jednak podanie pomocnej (robotycznej) dłoni na przykład przy gotowaniu obiadu, składaniu mebli, a nawet… nauce matematyki. Tak przynajmniej twierdzi Jason Wilson, jeden z członków zespołu badawczego odpowiedzialnego za projekt.

Roboty zostały wyposażone w umiejętność rozpoznawania, gdy ludzie potrzebują pomocy

Rozpoznawanie sytuacji, w których inni ludzie potrzebują pomocy jest dla nas dość łatwe i naturalne. Nawet jeśli nie wyrażą takiej chęci sami, to możemy zwrócić uwagę na ich mimikę, gesty, czy wypowiadane pod nosem słowa. Nawet wymowne spojrzenie może okazać się wystarczające do zrozumienia, iż konieczna jest nasza reakcja. Jako że roboty są pozbawione takich umiejętności, to Wilson i jego współpracownicy uznali za priorytet umożliwienie maszynom automatycznego przetwarzania tego typu wskazówek. Stworzyli więc technikę umożliwiającą rozpoznanie potrzeb człowieka na podstawie jego mowy oraz spojrzeń.

,,Architektura, nad którą pracujemy, automatycznie rozpoznaje mowę użytkownika i analizuje ją, aby określić, czy potrzebuje bądź oczekuje on pomocy. W tym samym czasie system wykrywa również wzorce spojrzeń i określa, czy użytkownik spogląda tak, jakby potrzebował pomocy. […] Obecnie prowadzimy badania nad wskazówkami społecznymi, które w największym stopniu pozwalałyby robotowi określić, kiedy użytkownik potrzebuje pomocy i jak bardzo jej potrzebuje. Jedną z kluczowych form komunikacji niewerbalnej, której jeszcze nie wykorzystujemy, jest ekspresja emocjonalna.”

podsumował Wilson

Podziel się postem :)

Najnowsze:

Bezpieczeństwo

Microsoft został zaatakowany przez rosyjskich hakerów

Niedawno doszło do ataku na systemy Microsoftu, przeprowadzonego przez grupę Midnight Blizzard, znana także jako NOBELIUM, która jest sponsorowana przez rosyjski rząd. Atak ten skutkował przełamaniem zabezpieczeń i nieautoryzowanym dostępem do części korespondencji e-mail firmy.

Oprogramowanie

Nowości w Bardzie – Gemini Pro i generowanie obrazów

Z początkiem lutego Google zapowiedziało kolejne nowości w Bard AI. Narzędzie zyskało dostęp do Gemini Pro w języku polskim (i wielu innych), więc teraz zaawansowany model sztucznej inteligencji może się wykazać także „po naszemu”. A to nie wszystko, bo kolejnym ulepszeniem jest silnik Imagen 2, odpowiedzialny za generatywne tworzenie grafiki.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *