Rosjanie planują wyprodukowanie deepfake z prezydentem Zełenskim. Uwaga na dezinformację!

Ukraińskie centrum bezpieczeństwa informacji (bazując na ustaleniach przekazanych przez wywiad sojuszniczego kraju) ostrzega, że niebawem w sieci może się pojawić deepfake wykorzystujący wizerunek prezydenta Ukrainy. Chodzi o zmanipulowany film, na którym prezydent miałby rzekomo wyrazić chęć poddania się Ukraińców w konflikcie.

Centrum Strategicznych Komunikacji i Bezpieczeństwa Informacyjnego przypomina, by nie wierzyć we wszystko, co można znaleźć w sieci – informuje PAP. Na tapecie jest temat deepfake’ów, które mogą powstać z wizerunkiem prezydenta Wołodymyra Zełenskiego. Wielokrotnie mieliśmy okazję przekonać się, jak autentycznie takie filmy mogą wyglądać. Na podobnej zasadzie w sieci można też łatwo spreparować fotografie.

Deepfake, co do zasady, to technika obróbki obrazu, w wyniku której powstaje nowy obraz, a w potocznym rozumieniu – film. Z wykorzystaniem sztucznej inteligencji oprogramowanie jest w stanie tak przygotować materiał, że może się wydawać, iż występują w nim osoby, które tak naprawdę nie wiedzą nawet o jego istnieniu. Te filmy, które powstają w celach rozrywkowych, są zrozumiałe. W trakcie wojny pojawia się już jednak poważne zagrożenie związane z dezinformacją.

Jak podaje PAP, cytując inne źródła, Ukraina z pewnością nie skapituluje, a wszystkie nagrania, które będą sugerować taką decyzję, należy od razu traktować jako fałsz. Łatwo sobie wyobrazić, że udostępnienie podobnego filmu może wywołać różne reakcje w społeczeństwie. Na podobnej zasadzie do niedawna funkcjonowały spreparowane konta w serwisach społecznościowych Facebook i Twitter, które w rzeczywistości okazały się być tylko mechanizmem propagandowym.

Podziel się postem:

Najnowsze:

Oprogramowanie

Unia Europejska przejdzie na Linuxa? Powstaje dystrybucja EU OS

Unia Europejska może wkrótce podjąć kroki w kierunku uniezależnienia się od amerykańskiego oprogramowania. Społeczność entuzjastów pod patronatem władz UE pracuje nad projektem EU OS, który ma zastąpić system operacyjny Windows w instytucjach rządowych. Wybór padł na modyfikację dystrybucji Fedora Linux, która zostanie dostosowana do potrzeb urzędników poprzez interfejs przypominający Windows.

Bezpieczeństwo

Przełomowa kwantowa technologia generowania liczb losowych z WAT: Szczegółowa analiza i perspektywy

W dzisiejszym zaawansowanym technologicznie świecie, prawdziwie losowe liczby stanowią fundament wielu kluczowych dziedzin. Od zabezpieczania komunikacji poprzez kryptografię aż po przeprowadzanie złożonych symulacji naukowych i inżynierskich , generowanie nieprzewidywalnych sekwencji danych jest niezbędne. Losowość odgrywa również istotną rolę w grach losowych , w sektorze finansowym , gdzie zapewnia unikalność transakcji, oraz w badaniach statystycznych. W kryptografii, siła klucza szyfrującego jest bezpośrednio związana z jakością i stopniem losowości użytym do jego wygenerowania . Im wyższa entropia źródła losowego, tym trudniejszy do złamania staje się klucz. Prawdziwa losowość jest zatem kluczowym elementem zapewniającym bezpieczeństwo w cyberprzestrzeni, wzmacniając algorytmy szyfrujące i chroniąc integralność przesyłanych oraz przechowywanych danych . Zapotrzebowanie na generatory liczb losowych o wysokiej jakości i nieprzewidywalności stale rośnie, co jest bezpośrednio powiązane z postępem technologicznym i coraz większym znaczeniem bezpieczeństwa informacji. Wraz z dynamicznym przenoszeniem coraz większej liczby aspektów naszego życia do sfery cyfrowej, ilość generowanych i przesyłanych danych nieustannie wzrasta. Ochrona tych danych przed nieautoryzowanym dostępem i manipulacją staje się priorytetem, a prawdziwa losowość jest nieodzownym narzędziem do skutecznego szyfrowania i zabezpieczania przed różnego rodzaju atakami.

Bezpieczeństwo

Prawdopodobnie DeepSeek Zna Twoje Sekrety: Analiza Bezpieczeństwa Danych Treningowych LLM

Prawdopodobnie DeepSeek zna Wasze sekrety oraz klucze API! Takie ostrzeżenie pojawiło się na łamach Sekurak.pl. W dynamicznie rozwijającym się świecie dużych modeli językowych (LLM), gdzie innowacje pojawiają się niemal codziennie, DeepSeek AI szybko zyskał miano znaczącego gracza, budząc zainteresowanie swoimi możliwościami i efektywnością. Jednakże, wraz z postępem technologicznym, pojawiają się również nowe wyzwania w obszarze bezpieczeństwa. Niedawne odkrycie dokonane przez badaczy z Truffle Security rzuca nowe światło na potencjalne zagrożenia związane z danymi treningowymi tych zaawansowanych modeli. Wnikliwa analiza publicznie dostępnego zbioru danych Common Crawl, wykorzystywanego do trenowania LLM, w tym DeepSeek, ujawniła obecność licznych, potencjalnie wciąż aktywnych kluczy API i haseł.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *