Rosja nakłada karę na Google. Gigant musi zapłacić miliony rubli!

Sąd w Moskwie ukarał Google za popełnienie dwóch wykroczeń administracyjnych. Zgodnie z orzeczeniem amerykański gigant technologiczny musi zapłacić karę 3 mln rubli (ok. 165 tys. złotych) za to, że nie usunął niektórych treści zabronionych w Rosji – informuje agencja Interfax.

Tagański sąd rejonowy w Moskwie ogłosił swoją decyzję 29 listopada. Rzeczniczka tej instytucji, Zulfija Gurinczuk, przekazała agencji Interfax, że amerykańska firma otrzymała karę administracyjną za dwa wykroczenia dotyczące zabronionych treści w wyszukiwarce Google i serwisie YouTube.

W tamtym miesiącu władze w Moskwie podały, że za niewystarczająco szybkie usunięcie nielegalnych materiałów cyfrowy gigant może zostać ukarany grzywną w wysokości procentu rocznych obrotów, jakie uzyskuje na rosyjskim rynku.

Karę w wysokości 3 mln rubli Google otrzymało także w lipcu br. Powodem jej nałożenia było wówczas – zdaniem moskiewskiego sądu – nieprzestrzeganie przez koncern krajowych przepisów dotyczących przechowywania danych osobowych obywateli Rosji. Agencja Reutera donosiła wówczas, że firma Alphabet, właściciel Google, uniknęła maksymalnej kary, która w tym przypadku mogła wynieść 6 mln rubli.

Pod koniec października br. pojawiła się informacja, że Google zapłaciło w Rosji ponad 32 mln rubli (ok. 1,77 mln zł) zaległych kar, nałożonych na firmę za nieusunięcie treści uważanych przez Moskwę za niezgodne z prawem. Przedstawiciele firmy wyrazili chęć zaangażowania się w dialog. Marco Pancini, który odpowiada w Google za kontakty z rządami państw z regionu EMEA twierdzi, że w pierwszej połowie br. usunięto z serwisu YouTube ponad 489 tys. filmów zawierających treści uznawane za zabronione.

Podziel się postem:

Najnowsze:

Oprogramowanie

Unia Europejska przejdzie na Linuxa? Powstaje dystrybucja EU OS

Unia Europejska może wkrótce podjąć kroki w kierunku uniezależnienia się od amerykańskiego oprogramowania. Społeczność entuzjastów pod patronatem władz UE pracuje nad projektem EU OS, który ma zastąpić system operacyjny Windows w instytucjach rządowych. Wybór padł na modyfikację dystrybucji Fedora Linux, która zostanie dostosowana do potrzeb urzędników poprzez interfejs przypominający Windows.

Bezpieczeństwo

Przełomowa kwantowa technologia generowania liczb losowych z WAT: Szczegółowa analiza i perspektywy

W dzisiejszym zaawansowanym technologicznie świecie, prawdziwie losowe liczby stanowią fundament wielu kluczowych dziedzin. Od zabezpieczania komunikacji poprzez kryptografię aż po przeprowadzanie złożonych symulacji naukowych i inżynierskich , generowanie nieprzewidywalnych sekwencji danych jest niezbędne. Losowość odgrywa również istotną rolę w grach losowych , w sektorze finansowym , gdzie zapewnia unikalność transakcji, oraz w badaniach statystycznych. W kryptografii, siła klucza szyfrującego jest bezpośrednio związana z jakością i stopniem losowości użytym do jego wygenerowania . Im wyższa entropia źródła losowego, tym trudniejszy do złamania staje się klucz. Prawdziwa losowość jest zatem kluczowym elementem zapewniającym bezpieczeństwo w cyberprzestrzeni, wzmacniając algorytmy szyfrujące i chroniąc integralność przesyłanych oraz przechowywanych danych . Zapotrzebowanie na generatory liczb losowych o wysokiej jakości i nieprzewidywalności stale rośnie, co jest bezpośrednio powiązane z postępem technologicznym i coraz większym znaczeniem bezpieczeństwa informacji. Wraz z dynamicznym przenoszeniem coraz większej liczby aspektów naszego życia do sfery cyfrowej, ilość generowanych i przesyłanych danych nieustannie wzrasta. Ochrona tych danych przed nieautoryzowanym dostępem i manipulacją staje się priorytetem, a prawdziwa losowość jest nieodzownym narzędziem do skutecznego szyfrowania i zabezpieczania przed różnego rodzaju atakami.

Bezpieczeństwo

Prawdopodobnie DeepSeek Zna Twoje Sekrety: Analiza Bezpieczeństwa Danych Treningowych LLM

Prawdopodobnie DeepSeek zna Wasze sekrety oraz klucze API! Takie ostrzeżenie pojawiło się na łamach Sekurak.pl. W dynamicznie rozwijającym się świecie dużych modeli językowych (LLM), gdzie innowacje pojawiają się niemal codziennie, DeepSeek AI szybko zyskał miano znaczącego gracza, budząc zainteresowanie swoimi możliwościami i efektywnością. Jednakże, wraz z postępem technologicznym, pojawiają się również nowe wyzwania w obszarze bezpieczeństwa. Niedawne odkrycie dokonane przez badaczy z Truffle Security rzuca nowe światło na potencjalne zagrożenia związane z danymi treningowymi tych zaawansowanych modeli. Wnikliwa analiza publicznie dostępnego zbioru danych Common Crawl, wykorzystywanego do trenowania LLM, w tym DeepSeek, ujawniła obecność licznych, potencjalnie wciąż aktywnych kluczy API i haseł.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *