Sztuczna inteligencja ma swoje ograniczenia. Wykazał to problem Smale’a

Proceedings of the National Academy of Sciences ukazały się wyniki badań sugerujących, że sztuczna inteligencja posiada ograniczenia wynikające z paradoksu matematycznego znanego od wielu lat.

Z jednej strony systemy oparte na przykład na głębokim uczeniu (ang. Deep Learning) zachwycają swoimi możliwościami, niejednokrotnie przewyższając ludzkie umiejętności. Sztuczna inteligencja może wykonywać obliczenia znacznie szybciej niż człowiek, skuteczniej radzi sobie też między innymi w rozpoznawaniu symptomów chorobowych. Wygląda jednak na to, iż największym jej problemem jest zrozumienie, kiedy popełnia błędy.

Badaniami w tej sprawie zajęli się przedstawiciele uniwersytetów w Cambridge i Oslo. Ich zdaniem niestabilność sztucznej inteligencji stanowi jej najsłabszy punkt, co udowadnia paradoks matematyczny sprzed wielu lat. Zajmowali się nim już Alan Turing i Kurt Gödel, którzy próbowali uzasadnić, że matematyka jest ostatecznym, spójnym językiem nauki. W toku analiz doszli natomiast do wniosku, że nie da się udowodnić, czy pewne twierdzenia matematyczne są prawdziwe czy fałszywe. Części problemów obliczeniowych nie da się też rozwiązać za pomocą algorytmów.

Wiele systemów SI jest niestabilnych i staje się to poważnym problemem, zwłaszcza, że są one coraz częściej wykorzystywane w obszarach wysokiego ryzyka, takich jak diagnozowanie chorób czy pojazdy autonomiczne. Jeśli systemy SI są wykorzystywane w dziedzinach, w których mogą wyrządzić prawdziwą krzywdę, jeśli się pomylą, zaufanie do tych systemów musi być najwyższym priorytetem.

Anders Hansen, Uniwersytet w Cambridge

Sztuczna inteligencja nie zawsze zdaje sobie sprawę z tego, kiedy robi coś źle

Jeśli chodzi o wspomniany wcześniej paradoks, to Stephen Smale zaproponował listę 18 nierozwiązanych problemów matematycznych XXI wieku. Jeden z nich dotyczył granic inteligencji ludzi i maszyn. To właśnie ten paradoks sprawia, że mogą istnieć dobre sieci neuronowe, które nie będą mogły zagwarantować pełnego zaufania. Jak wyjaśnia jeden z członków zespołu badawczego, bez względu na dokładność danych zabraknie informacji do zbudowania idealnej sieci neuronowej.

Obecnie systemy sztucznej inteligencji mogą czasami bawić się w zgadywanie. Próbujesz czegoś, a jeśli to nie działa, dodajesz więcej elementów w nadziei, że wreszcie zadziała. W pewnym momencie jesteś zmęczony tym, że nie otrzymałeś tego, czego oczekiwałeś, i spróbujesz innej metody. Ważne jest, aby zrozumieć ograniczenia różnych metod. Znajdujemy się na etapie, na którym praktyczne sukcesy SI znacznie wyprzedzają teorię i zrozumienie. Aby usunąć tę lukę, potrzebny jest program poświęcony zrozumieniu podstaw obliczeń

SI.Matthew Colbrook, Uniwersytet w Cambridge

Podziel się postem :)

Najnowsze:

Bezpieczeństwo

Powstanie Centrum Cyberbezpieczeństwa NASK. Ujawniono szczegóły

Powstanie Centrum Cyberbezpieczeństwa NASK, które będzie skupiać specjalistyczne centra, ośrodki i laboratoria, by wzmocnić krajowy system cyberbezpieczeństwa. Ma też wesprzeć działający już CSIRT NASK. Projekt zaplanowano do końca 2029 roku, jego wartość to 310 mln złotych.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *