Czy sztuczna inteligencja myśli w sposób podobny do ludzi?

Podejmowanie dobrych decyzji jest ważne, ale kluczowe jest przy tym rozumienie, dlaczego dokonało się takiego a nie innego wyboru. Z tego względu naukowcy stworzyli narzędzie, które umożliwia im ocenę działań sztucznej inteligencji.

Za pomysłem stoją przedstawiciele MIT i IBM Research. Dzięki ich wysiłkom możliwe było agregowanie, sortowanie i klasyfikowanie danych dotyczących decyzji podejmowanych przez modele oparte na uczeniu maszynowym. Technika ta, określana mianem Shared Interest, wykorzystuje wskaźniki, które porównują, w jakim stopniu rozumowanie modelu odpowiada rozumowaniu człowieka.

Shared Interest powinno wskazywać na niepokojące trendy dotyczące podejmowania decyzji przez model. W ten sposób możliwe będzie wykrycie, że na przykład ma on tendencję do popełniania błędów związanych z obiektami widocznymi w tle na analizowanych zdjęciach. Dzięki nowemu narzędziu człowiek jest jednak w stanie błyskawicznie określić, czy model jest godny zaufania.

Podstawę funkcjonowania takiego rozwiązania stanowi wyznaczanie obszarów obrazu, które były ważne dla modelu podczas podejmowania decyzji. W efekcie powstaje coś w rodzaju mapy, którą można nałożyć na oryginalny obraz. W praktyce działa to tak, że kiedy model podjął decyzję o zidentyfikowaniu danego obiektu to narzędzie wykaże, czym się przy niej kierował. Jeśli podświetlone elementy będą nieszczególnie związane z ostatecznym wyborem, to może się okazać, iż sztuczna inteligencja „miała więcej szczęścia niż rozumu”.

Sztuczna inteligencja może podejmować prawidłowe decyzje, ale dochodzić do nich w niewłaściwy sposób

Shared Interest porównuje dane wygenerowane przez model i przez człowieka dotyczące samego obrazu. Dzięki temu możliwe jest określenie, na ile się one pokrywają. Stopień dopasowania jest szacowany w oparciu o kilka metryk, a ostatecznie dana decyzja jest przyporządkowywana do jednej z ośmiu kategorii. Te są bardzo zróżnicowane, od sytuacji, w których model podjął prawidłową decyzję dochodząc do niej w odpowiedni sposób, aż po te, w których zarówno werdykt jak i sposób myślenia były błędne.

Biorąc pod uwagę trzy różne scenariusze, autorzy eksperymentu wykazali, że Shared Interest może być użyteczne nie tylko dla naukowców zajmujących się uczeniem maszynowym, ale także dla amatorów. Warianty te obejmowały kolejno: wspomaganie dermatologa w zakresie oceny skuteczności sztucznej inteligencji w diagnozowaniu raka na podstawie zdjęć zmian skórnych; błyskawiczną analizę tysięcy poprawnych i niepoprawnych decyzji; wyszczególnienie cech obrazu, które okazały się najważniejsze dla podjętych decyzji.

W pierwszym przypadku dermatolog stwierdził, iż nie może zaufać modelowi, ponieważ ten zbyt często dokonuje wyborów w oparciu o artefakty pojawiające się na analizowanych obrazach. Myślenie człowieka i maszyny okazało się więc rozbieżne. W przyszłości naukowcy chcieliby użyć Shared Interest na przykład do analizy danych tabelarycznych, które są wykorzystywane w dokumentacji medycznej.

Podziel się postem:

Najnowsze:

Mobilne

Kwalifikowany podpis elektroniczny w mObywatel: Nowa, bezpłatna opcja dla użytkowników prywatnych

Aplikacja mObywatel rozszerza swoje funkcjonalności o strategiczną usługę – bezpłatny kwalifikowany podpis elektroniczny. Nowe rozwiązanie, skierowane wyłącznie do użytkowników prywatnych, umożliwia podpisanie do pięciu dokumentów miesięcznie bez ponoszenia kosztów. Jest to istotna zmiana na rynku usług cyfrowych, ponieważ dotychczas zaawansowane podpisy tego typu były dostępne wyłącznie na zasadach komercyjnych.

Bezpieczeństwo

Analiza ESET: Północnokoreańska grupa Lazarus prowadzi działania szpiegowskie przeciwko europejskiemu przemysłowi obronnemu

Firma ESET, specjalizująca się w rozwiązaniach z zakresu cyberbezpieczeństwa, opublikowała wyniki badań wskazujące na kampanię szpiegowską prowadzoną przez północnokoreańską grupę Advanced Persistent Threat (APT) o kryptonimie Lazarus. Celem ataków były przedsiębiorstwa z europejskiego sektora obronnego.

Bezpieczeństwo

Pracownicy NFZ bezprawnie przeglądali dane ubezpieczonych. Fundusz zapowiada konsekwencje i zmiany w systemie

Narodowy Fundusz Zdrowia poinformował o poważnym incydencie bezpieczeństwa. Grupa pracowników NFZ, posiadająca legalny dostęp do Centralnego Wykazu Ubezpieczonych (CWU), wykorzystała swoje uprawnienia w sposób niezgodny z prawem, przeglądając dane pacjentów bez podstawy służbowej. Sprawa została zgłoszona do Prezesa Urzędu Ochrony Danych Osobowych (UODO).

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *