ChatGPT o1 potrafi rozwiązywać złożone problemy lepiej niż doktoranci. Czy to oznacza, że jest mądrzejszy od przeciętnego człowieka?

Nowy model OpenAI o1 potrafi rozwiązywać złożone problemy lepiej niż doktoranci. Czy to oznacza, że sztuczna inteligencja przewyższa przeciętny ludzki intelekt?

ChatGPT to prawdziwa rewolucja w świecie technologii. Ten sprytny program potrafi pisać teksty, odpowiadać na pytania, a nawet wymyślać kreatywne historie, co otworzyło przed nami mnóstwo nowych możliwości. To już nie tylko narzędzie, ale symbol tego, jak daleko zaszła sztuczna inteligencja i co jeszcze może nas czekać w przyszłości. Ba, dla wielu ChatGPT to po prostu synonim czatbota ze sztuczną inteligencją, tak jak kiedyś adidasy były synonimem sportowych butów.

OpenAI, twórca ChatGPT, nie spoczywa na laurach. Ich ciągłe prace nad nowymi modelami, takimi jak GPT-4 czy nadchodzący GPT-5, obiecują jeszcze większe możliwości i jeszcze bardziej zaawansowane funkcje. Czy najnowsza „truskawka” będzie przełomowa?

Oto OpenAI o1 (Strawberry)

OpenAI właśnie wprowadziło nową serię modeli AI o nazwie o1, zaprojektowanych tak, aby „myśleć” dłużej przed udzieleniem odpowiedzi. Potrafią one rozumować poprzez złożone zadania i rozwiązywać trudniejsze problemy niż poprzednie modele w dziedzinie nauki, kodowania i matematyki. Jest to pierwsza seria modeli „rozumowania” przeznaczonych do rozwiązywania trudnych problemów, która jest dostępna już teraz.

Modele te zostały przeszkolone, aby poświęcać więcej czasu na przemyślenie problemów przed udzieleniem odpowiedzi, podobnie jak robiłby to człowiek. Poprzez szkolenie uczą się one doskonalić swój proces myślowy, próbować różnych strategii i rozpoznawać swoje błędy.

W testach OpenAI, następna aktualizacja modelu działa porównywalnie do doktorantów w trudnych zadaniach porównawczych z fizyki, chemii i biologii. Okazało się również, że doskonale radzi sobie z matematyką i kodowaniem.

W egzaminie kwalifikacyjnym do Międzynarodowej Olimpiady Matematycznej (IMO), GPT-4o poprawnie rozwiązał tylko 13 proc. problemów, podczas gdy model rozumowania uzyskał wynik 83 proc. Ich zdolności kodowania zostały ocenione w konkursach i osiągnęły 89. proc. w konkursach Codeforces.

Choć o1 jest przełomowy w zakresie rozumowania, brakuje mu jeszcze funkcji takich jak przeglądanie internetu czy obsługa plików, co sprawia, że w wielu przypadkach GPT-4o jest użyteczniejszy. Mimo to, o1 reprezentuje „nowy poziom możliwości AI”, stąd jego nazwa symbolizująca nowy początek.

ChatGPT o1 nie jest idealny. Tutaj przegrywa ze starszym modelem

Aby zaoferować bardziej wydajne rozwiązanie dla programistów, OpenAI wydało również OpenAI o1-mini, szybszy i tańszy model, który jest szczególnie skuteczny w kodowaniu. Jako mniejszy model, o1-mini, ma być o 80 proc. tańszy niż o1-preview.

OpenAI opracowało nowe podejście do szkolenia w zakresie bezpieczeństwa, wykorzystujące zdolności rozumowania modeli, aby lepiej przestrzegały one wytycznych bezpieczeństwa. o1 osiąga znacznie lepsze wyniki w testach bezpieczeństwa niż GPT-4. Firma wzmocniła również swoje działania na rzecz bezpieczeństwa poprzez rygorystyczne testy, współpracę z rządem i partnerstwa z instytutami ds. bezpieczeństwa AI.

Jak skorzystać z OpenAI o1?

Użytkownicy ChatGPT Plus i Team będą mogli uzyskać dostęp do modeli o1 w ChatGPT od dzisiaj. Zarówno o1-preview, jak i o1-mini można wybrać ręcznie w selektorze modeli, a w momencie uruchomienia tygodniowe limity stawek będą wynosić 30 wiadomości dla o1-preview i 50 dla o1-mini. Użytkownicy ChatGPT Enterprise i Edu uzyskają dostęp do obu modeli od 16 września.

OpenAI planuje również zapewnić dostęp do o1-mini wszystkim użytkownikom ChatGPT Free.

Podziel się postem:

Najnowsze:

Oprogramowanie

Unia Europejska przejdzie na Linuxa? Powstaje dystrybucja EU OS

Unia Europejska może wkrótce podjąć kroki w kierunku uniezależnienia się od amerykańskiego oprogramowania. Społeczność entuzjastów pod patronatem władz UE pracuje nad projektem EU OS, który ma zastąpić system operacyjny Windows w instytucjach rządowych. Wybór padł na modyfikację dystrybucji Fedora Linux, która zostanie dostosowana do potrzeb urzędników poprzez interfejs przypominający Windows.

Bezpieczeństwo

Przełomowa kwantowa technologia generowania liczb losowych z WAT: Szczegółowa analiza i perspektywy

W dzisiejszym zaawansowanym technologicznie świecie, prawdziwie losowe liczby stanowią fundament wielu kluczowych dziedzin. Od zabezpieczania komunikacji poprzez kryptografię aż po przeprowadzanie złożonych symulacji naukowych i inżynierskich , generowanie nieprzewidywalnych sekwencji danych jest niezbędne. Losowość odgrywa również istotną rolę w grach losowych , w sektorze finansowym , gdzie zapewnia unikalność transakcji, oraz w badaniach statystycznych. W kryptografii, siła klucza szyfrującego jest bezpośrednio związana z jakością i stopniem losowości użytym do jego wygenerowania . Im wyższa entropia źródła losowego, tym trudniejszy do złamania staje się klucz. Prawdziwa losowość jest zatem kluczowym elementem zapewniającym bezpieczeństwo w cyberprzestrzeni, wzmacniając algorytmy szyfrujące i chroniąc integralność przesyłanych oraz przechowywanych danych . Zapotrzebowanie na generatory liczb losowych o wysokiej jakości i nieprzewidywalności stale rośnie, co jest bezpośrednio powiązane z postępem technologicznym i coraz większym znaczeniem bezpieczeństwa informacji. Wraz z dynamicznym przenoszeniem coraz większej liczby aspektów naszego życia do sfery cyfrowej, ilość generowanych i przesyłanych danych nieustannie wzrasta. Ochrona tych danych przed nieautoryzowanym dostępem i manipulacją staje się priorytetem, a prawdziwa losowość jest nieodzownym narzędziem do skutecznego szyfrowania i zabezpieczania przed różnego rodzaju atakami.

Bezpieczeństwo

Prawdopodobnie DeepSeek Zna Twoje Sekrety: Analiza Bezpieczeństwa Danych Treningowych LLM

Prawdopodobnie DeepSeek zna Wasze sekrety oraz klucze API! Takie ostrzeżenie pojawiło się na łamach Sekurak.pl. W dynamicznie rozwijającym się świecie dużych modeli językowych (LLM), gdzie innowacje pojawiają się niemal codziennie, DeepSeek AI szybko zyskał miano znaczącego gracza, budząc zainteresowanie swoimi możliwościami i efektywnością. Jednakże, wraz z postępem technologicznym, pojawiają się również nowe wyzwania w obszarze bezpieczeństwa. Niedawne odkrycie dokonane przez badaczy z Truffle Security rzuca nowe światło na potencjalne zagrożenia związane z danymi treningowymi tych zaawansowanych modeli. Wnikliwa analiza publicznie dostępnego zbioru danych Common Crawl, wykorzystywanego do trenowania LLM, w tym DeepSeek, ujawniła obecność licznych, potencjalnie wciąż aktywnych kluczy API i haseł.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *