Nowy model OpenAI ,,Orion” zadebiutuje jeszcze w 2024 roku

OpenAI planuje wydanie następcy obecnych modeli GPT-4o i o1. Jak donosi redakcja The Verge, nowy model ma nosić nazwę Orion. Z przekazanych informacji wynika, że model ten początkowo nie będzie powszechnie dostępny. OpenAI ma w pierwszej kolejności przyznać dostęp do Oriona firmom, z którymi ściśle współpracuje.

Choć zgodnie z dostępnymi w sieci informacjami, premiera Oriona ma mieć miejsce w grudniu 2024 r., inne źródło, na które powołuje się The Verge informuje, że Microsoft przygotowuje się do hostowania Oriona na platformie Azure już w listopadzie.

Orion czy GPT-5?

Nie ma też jasności odnośnie planowanego nazewnictwa nowego modelu od OpenAI. Choć będzie on bezpośrednim następcą GPT-4, możliwe, że nie będzie on nazywać się po prostu GPT-5. OpenAI i Microsoft nie skomentowały tej sprawy.

Tadao Nagasaki z OpenAI powiedział, że model Orion będzie nawet 100 razy mocniejszy niż GPT-4. Ma być on przy tym niezależny od rozumowania modelu o1. Firma planuje, by z czasem połączyć swoje modele w taki sposób, by powstał jeden, bardziej wydajny model, który mógłby zostać „artifical general intelligence”, czyli ogólną sztuczną inteligencją. Zakłada ona, że AI będzie mieć wszelkie atrybuty, które są dostępne w ludzkim umyśle.

Wcześniej informowano, że OpenAI używa o1, by dostarczać syntetyczne dane do trenowania Oriona. We wrześniu pracownicy OpenAI mieli zakończyć trenowanie nowego modelu. Wtedy też pojawił się enigmatyczny wpis Sama Altmana, CEO OpenAI, w którym mówił o ekscytacji przed zimowymi wydarzeniami.

Podziel się postem:

Najnowsze:

Oprogramowanie

Unia Europejska przejdzie na Linuxa? Powstaje dystrybucja EU OS

Unia Europejska może wkrótce podjąć kroki w kierunku uniezależnienia się od amerykańskiego oprogramowania. Społeczność entuzjastów pod patronatem władz UE pracuje nad projektem EU OS, który ma zastąpić system operacyjny Windows w instytucjach rządowych. Wybór padł na modyfikację dystrybucji Fedora Linux, która zostanie dostosowana do potrzeb urzędników poprzez interfejs przypominający Windows.

Bezpieczeństwo

Przełomowa kwantowa technologia generowania liczb losowych z WAT: Szczegółowa analiza i perspektywy

W dzisiejszym zaawansowanym technologicznie świecie, prawdziwie losowe liczby stanowią fundament wielu kluczowych dziedzin. Od zabezpieczania komunikacji poprzez kryptografię aż po przeprowadzanie złożonych symulacji naukowych i inżynierskich , generowanie nieprzewidywalnych sekwencji danych jest niezbędne. Losowość odgrywa również istotną rolę w grach losowych , w sektorze finansowym , gdzie zapewnia unikalność transakcji, oraz w badaniach statystycznych. W kryptografii, siła klucza szyfrującego jest bezpośrednio związana z jakością i stopniem losowości użytym do jego wygenerowania . Im wyższa entropia źródła losowego, tym trudniejszy do złamania staje się klucz. Prawdziwa losowość jest zatem kluczowym elementem zapewniającym bezpieczeństwo w cyberprzestrzeni, wzmacniając algorytmy szyfrujące i chroniąc integralność przesyłanych oraz przechowywanych danych . Zapotrzebowanie na generatory liczb losowych o wysokiej jakości i nieprzewidywalności stale rośnie, co jest bezpośrednio powiązane z postępem technologicznym i coraz większym znaczeniem bezpieczeństwa informacji. Wraz z dynamicznym przenoszeniem coraz większej liczby aspektów naszego życia do sfery cyfrowej, ilość generowanych i przesyłanych danych nieustannie wzrasta. Ochrona tych danych przed nieautoryzowanym dostępem i manipulacją staje się priorytetem, a prawdziwa losowość jest nieodzownym narzędziem do skutecznego szyfrowania i zabezpieczania przed różnego rodzaju atakami.

Bezpieczeństwo

Prawdopodobnie DeepSeek Zna Twoje Sekrety: Analiza Bezpieczeństwa Danych Treningowych LLM

Prawdopodobnie DeepSeek zna Wasze sekrety oraz klucze API! Takie ostrzeżenie pojawiło się na łamach Sekurak.pl. W dynamicznie rozwijającym się świecie dużych modeli językowych (LLM), gdzie innowacje pojawiają się niemal codziennie, DeepSeek AI szybko zyskał miano znaczącego gracza, budząc zainteresowanie swoimi możliwościami i efektywnością. Jednakże, wraz z postępem technologicznym, pojawiają się również nowe wyzwania w obszarze bezpieczeństwa. Niedawne odkrycie dokonane przez badaczy z Truffle Security rzuca nowe światło na potencjalne zagrożenia związane z danymi treningowymi tych zaawansowanych modeli. Wnikliwa analiza publicznie dostępnego zbioru danych Common Crawl, wykorzystywanego do trenowania LLM, w tym DeepSeek, ujawniła obecność licznych, potencjalnie wciąż aktywnych kluczy API i haseł.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *