GPT-5 będzie „na poziomie osoby z doktoratem”? OpenAI zachwala nowy model

Model GPT-5 może w pewnych konkretnych zadaniach wykazywać się „inteligencją” na poziomie doktora nauk. Tak przynajmniej wynika z deklaracji ze strony OpenAI. Firma traktuje swoje kolejne modele sztucznej inteligencji jako przykład rozwoju podobny do tego, który ma miejsce w przypadku nauki w szkole i na uczelni.

GPT-5 niczym „doktor nauk”, czyli ambitne plany OpenAI

Mira Murati, dyrektor ds. technologii w OpenAI wzięła udział w rozmowie zorganizowanej przez uczelnię Thayer School of Engineering at Dartmouth. Przedstawicielka jednej z najbardziej znanych firm w dziedzinie sztucznej inteligencji porównała ewolucję modeli GPT do rozwoju człowieka, który następuje wraz z kolejnymi etapami edukacji.

Mira Murati, dyrektor ds. technologii w OpenAI

Murati porównuje GPT-3 do inteligencji malucha, a GPT-4 do możliwości umysłowych licealisty. Zdaniem dyrektor ds. technologii w OpenAI w kolejnych latach będziemy mieli z kolei do czynienia z inteligencją na poziomie doktora nauk (Ph.D.) w odniesieniu do konkretnych zadań. Konkretnie ma to nastąpić za półtora roku, wraz z kolejną generacją modelu sztucznej inteligencji. Pojawiają się tu skojarzenia z GPT-5, który mógłby wtedy zadebiutować.

Czy rzeczywiście już za kilkanaście miesięcy możemy mieć do czynienia z technologią, której poziom będzie imponujący w porównaniu z AI, którą znamy dzisiaj? Niektórym może być trudno to sobie wyobrazić, patrząc na niemałe wpadki, które cały czas zdarzają się nawet najlepszym modelom sztucznej inteligencji. Z drugiej strony postęp jest naprawdę szybki i AI może generować dziś choćby filmy i obrazy na zupełnie innym poziomie, niż jeszcze np. rok temu.

Nie zapominajmy też, że Mira Murati powiązała możliwości doktora nauk z zastosowaniem w konkretnych zadaniach. Nie oznacza to więc, że GPT-5 będzie miał tak szeroką wiedzę i umiejętności, jak osoba po doktoracie, tylko że w określonych procesach wykaże się zbliżonymi możliwościami.

Rywalizacja OpenAI z Anthropic

Czat Claude Pro wyprodukowany przez firmę Antrophic

Podczas gdy na temat GPT-5 pojawiają się różne spekulacje, najbardziej zaawansowanym modelem od OpenAI pozostaje GPT-4o. Choć może imponować on swoimi możliwościami w porównaniu do poprzednich wersji, nie oznacza to, że jego twórcy nie mają poważnej konkurencji.

Podziel się postem:

Najnowsze:

Oprogramowanie

Unia Europejska przejdzie na Linuxa? Powstaje dystrybucja EU OS

Unia Europejska może wkrótce podjąć kroki w kierunku uniezależnienia się od amerykańskiego oprogramowania. Społeczność entuzjastów pod patronatem władz UE pracuje nad projektem EU OS, który ma zastąpić system operacyjny Windows w instytucjach rządowych. Wybór padł na modyfikację dystrybucji Fedora Linux, która zostanie dostosowana do potrzeb urzędników poprzez interfejs przypominający Windows.

Bezpieczeństwo

Przełomowa kwantowa technologia generowania liczb losowych z WAT: Szczegółowa analiza i perspektywy

W dzisiejszym zaawansowanym technologicznie świecie, prawdziwie losowe liczby stanowią fundament wielu kluczowych dziedzin. Od zabezpieczania komunikacji poprzez kryptografię aż po przeprowadzanie złożonych symulacji naukowych i inżynierskich , generowanie nieprzewidywalnych sekwencji danych jest niezbędne. Losowość odgrywa również istotną rolę w grach losowych , w sektorze finansowym , gdzie zapewnia unikalność transakcji, oraz w badaniach statystycznych. W kryptografii, siła klucza szyfrującego jest bezpośrednio związana z jakością i stopniem losowości użytym do jego wygenerowania . Im wyższa entropia źródła losowego, tym trudniejszy do złamania staje się klucz. Prawdziwa losowość jest zatem kluczowym elementem zapewniającym bezpieczeństwo w cyberprzestrzeni, wzmacniając algorytmy szyfrujące i chroniąc integralność przesyłanych oraz przechowywanych danych . Zapotrzebowanie na generatory liczb losowych o wysokiej jakości i nieprzewidywalności stale rośnie, co jest bezpośrednio powiązane z postępem technologicznym i coraz większym znaczeniem bezpieczeństwa informacji. Wraz z dynamicznym przenoszeniem coraz większej liczby aspektów naszego życia do sfery cyfrowej, ilość generowanych i przesyłanych danych nieustannie wzrasta. Ochrona tych danych przed nieautoryzowanym dostępem i manipulacją staje się priorytetem, a prawdziwa losowość jest nieodzownym narzędziem do skutecznego szyfrowania i zabezpieczania przed różnego rodzaju atakami.

Bezpieczeństwo

Prawdopodobnie DeepSeek Zna Twoje Sekrety: Analiza Bezpieczeństwa Danych Treningowych LLM

Prawdopodobnie DeepSeek zna Wasze sekrety oraz klucze API! Takie ostrzeżenie pojawiło się na łamach Sekurak.pl. W dynamicznie rozwijającym się świecie dużych modeli językowych (LLM), gdzie innowacje pojawiają się niemal codziennie, DeepSeek AI szybko zyskał miano znaczącego gracza, budząc zainteresowanie swoimi możliwościami i efektywnością. Jednakże, wraz z postępem technologicznym, pojawiają się również nowe wyzwania w obszarze bezpieczeństwa. Niedawne odkrycie dokonane przez badaczy z Truffle Security rzuca nowe światło na potencjalne zagrożenia związane z danymi treningowymi tych zaawansowanych modeli. Wnikliwa analiza publicznie dostępnego zbioru danych Common Crawl, wykorzystywanego do trenowania LLM, w tym DeepSeek, ujawniła obecność licznych, potencjalnie wciąż aktywnych kluczy API i haseł.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *