Sztuczna inteligencja ma swoje ograniczenia. Wykazał to problem Smale’a

Proceedings of the National Academy of Sciences ukazały się wyniki badań sugerujących, że sztuczna inteligencja posiada ograniczenia wynikające z paradoksu matematycznego znanego od wielu lat.

Z jednej strony systemy oparte na przykład na głębokim uczeniu (ang. Deep Learning) zachwycają swoimi możliwościami, niejednokrotnie przewyższając ludzkie umiejętności. Sztuczna inteligencja może wykonywać obliczenia znacznie szybciej niż człowiek, skuteczniej radzi sobie też między innymi w rozpoznawaniu symptomów chorobowych. Wygląda jednak na to, iż największym jej problemem jest zrozumienie, kiedy popełnia błędy.

Badaniami w tej sprawie zajęli się przedstawiciele uniwersytetów w Cambridge i Oslo. Ich zdaniem niestabilność sztucznej inteligencji stanowi jej najsłabszy punkt, co udowadnia paradoks matematyczny sprzed wielu lat. Zajmowali się nim już Alan Turing i Kurt Gödel, którzy próbowali uzasadnić, że matematyka jest ostatecznym, spójnym językiem nauki. W toku analiz doszli natomiast do wniosku, że nie da się udowodnić, czy pewne twierdzenia matematyczne są prawdziwe czy fałszywe. Części problemów obliczeniowych nie da się też rozwiązać za pomocą algorytmów.

Wiele systemów SI jest niestabilnych i staje się to poważnym problemem, zwłaszcza, że są one coraz częściej wykorzystywane w obszarach wysokiego ryzyka, takich jak diagnozowanie chorób czy pojazdy autonomiczne. Jeśli systemy SI są wykorzystywane w dziedzinach, w których mogą wyrządzić prawdziwą krzywdę, jeśli się pomylą, zaufanie do tych systemów musi być najwyższym priorytetem.

Anders Hansen, Uniwersytet w Cambridge

Sztuczna inteligencja nie zawsze zdaje sobie sprawę z tego, kiedy robi coś źle

Jeśli chodzi o wspomniany wcześniej paradoks, to Stephen Smale zaproponował listę 18 nierozwiązanych problemów matematycznych XXI wieku. Jeden z nich dotyczył granic inteligencji ludzi i maszyn. To właśnie ten paradoks sprawia, że mogą istnieć dobre sieci neuronowe, które nie będą mogły zagwarantować pełnego zaufania. Jak wyjaśnia jeden z członków zespołu badawczego, bez względu na dokładność danych zabraknie informacji do zbudowania idealnej sieci neuronowej.

Obecnie systemy sztucznej inteligencji mogą czasami bawić się w zgadywanie. Próbujesz czegoś, a jeśli to nie działa, dodajesz więcej elementów w nadziei, że wreszcie zadziała. W pewnym momencie jesteś zmęczony tym, że nie otrzymałeś tego, czego oczekiwałeś, i spróbujesz innej metody. Ważne jest, aby zrozumieć ograniczenia różnych metod. Znajdujemy się na etapie, na którym praktyczne sukcesy SI znacznie wyprzedzają teorię i zrozumienie. Aby usunąć tę lukę, potrzebny jest program poświęcony zrozumieniu podstaw obliczeń

SI.Matthew Colbrook, Uniwersytet w Cambridge
Tagi:

Podziel się postem :)

Najnowsze:

Bezpieczeństwo

Menadżer haseł Norton złamany! Wyciek danych użytkowników

Znany producent oprogramowania odpowiadającego za bezpieczeństwo naszych komputerów i danych — Norton — poinformował o złamaniu zabezpieczeń usługi LifeLock, służącej m.in. do przechowywania haseł. Hakerzy mogli uzyskać dostęp do kont niektórych klientów.

Bezpieczeństwo

Każdy smartfon można podsłuchać. Wystarczy sprytny trik z akcelerometrem

Ataki bocznokanałowe to fascynująca sprawa. Przyznajcie, pomysły takie jak wykorzystanie regulacji prędkości obrotowej wentylatorów komputera do przesyłania danych alfabetem Morse’a robią wrażenie. Oto kolejny z nich. Nie mniej zaskakujący, za to potencjalnie niebezpieczny, bo pozwala napastnikowi podsłuchiwać rozmowy. W pewnym sensie.

Oprogramowanie

Programiści wolą Linuksa od Maca. Dlaczego?

Linux wygrywa z systemem macOS wśród programistów. Kodowanie to jedno z tych zastosowań, wśród których „Pingwinek” odgrywa naprawdę dużą rolę.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *