Informator twierdzi, że Microsoft przedkłada zysk nad bezpieczeństwo i naraża rząd USA na rosyjskie ataki hakerskie

Były pracownik Microsoftu twierdzi, że gigant technologiczny odrzucił jego wielokrotne ostrzeżenia o luce w zabezpieczeniach, która została później wykorzystana podczas włamania do SolarWinds, przedkładając interesy biznesowe nad bezpieczeństwo klientów. Andrew Harris, który pracował w zespole bezpieczeństwa chmury Microsoftu, twierdzi, że odkrył słabość w 2016 roku, ale powiedziano mu, że naprawienie jej może zagrozić wielomiliardowemu kontraktowi rządowemu i przewadze konkurencyjnej firmy, podała w czwartek ProPublica.

Luka w produkcie Microsoft o nazwie Active Directory Federation Services pozwalała hakerom na ominięcie zabezpieczeń i uzyskanie dostępu do wrażliwych danych w chmurze. Rosyjscy hakerzy wykorzystali tę lukę w ataku SolarWinds w 2020 roku, włamując się do kilku amerykańskich agencji. Microsoft nadal zaprzecza niewłaściwym działaniom, podkreślając, że ochrona klientów jest jego najwyższym priorytetem. Rewelacje te pojawiają się w czasie, gdy Microsoft stoi w obliczu rosnącej kontroli nad swoimi praktykami bezpieczeństwa i stara się rozszerzyć swoją działalność rządową.

ELI5: Były pracownik Microsoftu mówi, że firma zignorowała jego ostrzeżenia o błędzie w zabezpieczeniach, który potem pomógł włamać się do SolarWinds. Twierdzi, że Microsoft bardziej dbał o pieniądze niż o klientów. Błąd w usłudze Microsoftu pozwolił hakerom na dostęp do ważnych danych. Microsoft zaprzecza i mówi, że zawsze troszczy się o bezpieczeństwo klientów. Dochodzi do tego w czasie, gdy Microsoft jest krytykowany za swoje praktyki bezpieczeństwa i chce rozszerzyć współpracę z rządem.

Źródła:

Apple zobowiązuje się do co najmniej pięciu lat aktualizacji zabezpieczeń iPhone'a

Przy zakupie nowego smartfona ważne jest, aby wziąć pod uwagę czas trwania aktualizacji oprogramowania, ponieważ ma to wpływ na bezpieczeństwo i długowieczność. W rzadkim publicznym zobowiązaniu w poniedziałek, dzięki nowym brytyjskim przepisom dotyczącym bezpieczeństwa produktów i infrastruktury telekomunikacyjnej (PSTI), Apple powiedziało, że gwarantuje co najmniej pięć lat aktualizacji zabezpieczeń dla iPhone'a 15 Pro Max. "Innymi słowy, iPhone 15 ma oficjalną gwarancję otrzymywania aktualizacji zabezpieczeń do 22 września 2028 roku", donosi Android Authority. Z raportu: *To, jak zauważa wiceprezes ds. inżynierii Android Security & Privacy w Google Dave Kleidermacher, oznacza, że Apple nie oferuje już najlepszej polityki aktualizacji zabezpieczeń w branży. Zarówno Samsung, jak i Google gwarantują siedem lat nie tylko aktualizacji zabezpieczeń, ale także aktualizacji systemu operacyjnego Android dla swoich flagowych urządzeń, czyli o dwa lata dłużej niż gwarantuje Apple.

Trzeba jednak przyznać, że Apple od dawna zapewnia ponad pięć lat aktualizacji zabezpieczeń dla swoich różnych urządzeń iPhone. Niektóre iPhone'y otrzymały aktualizacje zabezpieczeń sześć lub więcej lat po pierwszym wydaniu, co jest znacznie większym wsparciem niż zdecydowana większość urządzeń z Androidem. Tak więc, podczas gdy Samsung i Google obecnie pokonują Apple pod względem tego, jak długo gwarantują wsparcie oprogramowania, nie oznacza to, że użytkownicy iPhone'ów nie mogą trzymać swoich telefonów równie długo, jeśli nie dłużej. Muszą tylko mieć nadzieję, że Apple nie przerwie wsparcia po pięcioletnim minimum.

ELI5: Kiedy kupujesz nowy telefon, ważne jest, aby sprawdzić ile lat producent będzie udzielał aktualizacji oprogramowania. Apple obiecuje zapewnić aktualizacje zabezpieczeń dla iPhone'a 15 Pro Max przez co najmniej pięć lat. To znaczy, że będą one dostępne do 2028 roku. Inne firmy, takie jak Samsung i Google, oferują siedem lat aktualizacji dla swoich flagowych modeli, czyli dwa lata dłużej niż Apple. Niemniej jednak, Apple znany jest z długotrwałego wsparcia dla swoich urządzeń w porównaniu do większości telefonów z systemem Android.

Źródła:

Programy szpiegujące znalezione na komputerach do meldowania w hotelu w USA

Na systemach zameldowaniowych co najmniej trzech hoteli sieci Wyndham w Stanach Zjednoczonych odkryto aplikację szpiegującą przeznaczoną dla konsumentów - donosił w środę TechCrunch.

Aplikacja o nazwie pcTattletale w sposób skryty i ciągły przechwytywała zrzuty ekranu systemów rezerwacji hotelowej, zawierające dane gości i informacje o klientach. Dzięki luce w zabezpieczeniach aplikacji szpiegującej, te zrzuty ekranu są dostępne dla każdego w internecie, a nie tylko dla zamierzonych użytkowników aplikacji szpiegującej.

To najnowszy przykład tego, jak aplikacja szpiegująca dla konsumentów ujawnia wrażliwe informacje z powodu luki w zabezpieczeniach aplikacji szpiegującej. To również drugi znany przypadek, kiedy pcTattletale ujawnił zrzuty ekranu urządzeń, na których aplikacja jest zainstalowana. W ostatnich latach kilka innych aplikacji szpiegujących miało błędy bezpieczeństwa lub błędy konfiguracji, które ujawniały prywatne i osobiste dane nieświadomych właścicieli urządzeń, w niektórych przypadkach skłaniając do działania regulatorów rządowych. pcTattletale umożliwia każdemu, kto ją kontroluje, zdalne przeglądanie urządzenia z systemem Android lub Windows oraz jego danych, z dowolnego miejsca na świecie. Strona internetowa pcTattletale mówi, że aplikacja „działa niewidocznie w tle na ich stanowiskach pracy i nie może być wykryta."*

ELI5: W hotelach należących do sieci Wyndham w USA znajdują się aplikacje szpiegujące, które potajemnie przechwytują informacje o gościach i klientach. Te aplikacje mają luki w zabezpieczeniach, przez co ujawniają zebrane dane w internecie. Jest to kolejny przypadek, kiedy tego typu aplikacje ujawniają poufne informacje. PcTattletale to aplikacja, która pozwala na zdalny dostęp do urządzeń z systemem Android lub Windows, bez wiedzy ich użytkowników. Jej strona internetowa informuje, że działa w tle i nie może być wykryta przez osoby kontrolujące.

Źródła:

Nieujawniona podatność WhatsApp umożliwia rządom sprawdzenie, z kim rozmawiasz

Zespół ds. bezpieczeństwa WhatsApp ostrzegł, że pomimo szyfrowania aplikacji, użytkownicy są podatni na nadzór rządowy poprzez analizę ruchu, wynika to z wewnętrznej oceny zagrożeń uzyskanej przez The Intercept. Dokument sugeruje, że rządy mogą monitorować kiedy i gdzie zachodzą komunikacje zaszyfrowane, potencjalnie pozwalając na potężne wnioski na temat tego, kto rozmawia z kim. Raport dodaje: Mimo że treści komunikacji WhatsApp są nieczytelne, ocena pokazuje, jak rządy mogą wykorzystać dostęp do infrastruktury internetowej, aby monitorować kiedy i gdzie zachodzą komunikacje zaszyfrowane, podobnie jak obserwowanie listonosza przewożącego zapieczętowaną kopertę. Ten wgląd w krajowy ruch internetowy wystarcza, aby wyciągnąć silne wnioski na temat tego, które osoby prowadzą rozmowy między sobą, nawet jeśli tematy rozmów pozostają tajemnicą. "Nawet przy założeniu, że szyfrowanie WhatsApp jest nie do złamania", czytamy w ocenie, "trwające ataki 'zbierania i korelacji' nadal by rozbiły nasz zamierzony model prywatności."

Ocena zagrożeń WhatsApp nie opisuje konkretnych przypadków, w których wiadomo, że ta metoda została zastosowana przez podmioty państwowe. Ale powołuje się na obszerne raportowanie New York Times i Amnesty International, które pokazują, jak kraje na całym świecie szpiegują korzystanie z zaszyfrowanych aplikacji czatowych przez opozycję, w tym WhatsApp, stosując te same techniki. W miarę jak wojna staje się coraz bardziej skomputeryzowana, metadane - informacje o kim, kiedy i gdzie odbywają się rozmowy - zyskują ogromną wartość dla agencji wywiadowczych, wojskowych i policyjnych na całym świecie. "My zabijamy ludzi na podstawie metadanych", kiedyś słynnie wygłosił były szef Narodowej Agencji Bezpieczeństwa Michael Hayden. Meta powiedział, że "WhatsApp nie ma backdoorów i nie mamy dowodów na podatności związane z działaniem WhatsApp." Choć ocena opisuje "podatności" jako "trwające" i wspomina WhatsApp 17 razy, rzecznik Mety stwierdził, że dokument nie jest "odbiciem podatności WhatsApp", jedynie "teoretycznym", i nie jest unikalny dla WhatsApp.

ELI5: Zespół odpowiedzialny za bezpieczeństwo WhatsApp ostrzegł, że rządy mogą nadzorować komunikację użytkowników pomimo zaszyfrowania, analizując dane o czasie i miejscu prowadzenia rozmów. Choć treści są zaszyfrowane, informacje o tym, kiedy i gdzie odbywają się rozmowy mogą ujawnić wiele o użytkownikach. Takie działania są wykonywane przez rządy na całym świecie, a metadane stają się coraz ważniejsze dla agencji wywiadowczych. WhatsApp zaprzecza istnieniu "backdoorów" czyli ścieżek poza systemem zabezpieczeń, jednak istnieje ryzyko nadzoru związane z innymi aspektami aplikacji.

Źródła:

Bruce Schneier przypomina inżynierom LLM o zagrożeniach związanych z podatnościami na wstrzykiwanie instrukcji

Profesjonalista ds. bezpieczeństwa Bruce Schneier argumentuje, że duże modele językowe mają taką samą podatność, jak telefony w latach 70., wykorzystywane przez Johna Drapera. "Dane i kontrola używały tego samego kanału," pisze Schneier w czasopiśmie Communications of the ACM. "To znaczy, że polecenia, które informowały centralę telefoniczną, co ma zrobić, były przesyłane wraz z głosami."

Inne formy wstrzykiwania poleceń polegają na tym, że LLM otrzymuje złośliwe instrukcje w danych szkoleniowych. Inny przykład polega na ukryciu tajnych poleceń w stronach internetowych. Każda aplikacja LLM, która przetwarza e-maile lub strony internetowe, jest podatna. Atakujący mogą osadzić złośliwe polecenia w obrazach i filmach, dlatego każdy system przetwarzający je jest podatny. Każda aplikacja LLM, która ma kontakt z niezaufanymi użytkownikami - pomyśl o czacie wbudowanym na stronie internetowej - będzie podatna na ataki. Trudno znaleźć aplikację LLM, która nie jest w żaden sposób podatna.

Poszczególne ataki są łatwe do zapobieżenia po ich odkryciu i upublicznieniu, ale jest ich nieskończona liczba, i nie ma możliwości zablokowania ich jako klasy. Prawdziwy problem tutaj jest ten sam, który dręczył sieć telefoniczną przed SS7: mieszanina danych i poleceń. Dopóki dane - czy to dane szkoleniowe, tekstowe polecenia czy inne dane wejściowe do LLM - są pomieszane z poleceniami, które mówią LLM, co ma zrobić, system będzie podatny. Ale w przeciwieństwie do systemu telefonicznego, nie możemy oddzielić danych LLM od jego poleceń. Jedną z niezwykle potężnych cech LLM jest to, że dane wpływają na kod. Chcemy, żeby system modyfikował swoje działanie po otrzymaniu nowych danych szkoleniowych. Chcemy, aby zmieniał sposób działania na podstawie poleceń, które mu dajemy. To, że LLM same modyfikują się na podstawie danych wejściowych, jest cechą, a nie błędem. I to właśnie jest tym, co umożliwia wstrzykiwanie poleceń.

Stajemy się coraz lepsi w tworzeniu LLM, które są odporne na te ataki. Budujemy systemy, które czyszczą dane wejściowe, zarówno poprzez rozpoznanie znanych ataków wstrzykiwania poleceń, jak i szkolenie innych LLM w rozpoznawaniu, jak takie ataki wyglądają. (choć teraz musisz zabezpieczyć ten inny LLM przed atakami wstrzykiwania poleceń).

W niektórych przypadkach możemy użyć mechanizmów kontroli dostępu i innych systemów bezpieczeństwa internetowego, aby ograniczyć, kto może uzyskać dostęp do LLM i co LLM może robić. To będzie ograniczać, na ile możemy im zaufać. Czy kiedykolwiek możesz zaufać asystentowi emailowemu LLM, jeśli można go oszukać, żeby zrobił coś, czego nie powinien? Czy możesz kiedykolwiek zaufać systemowi wideo do detekcji ruchu w generatywnym AI, jeśli ktoś może podnieść starannie sformułowany znak i przekonać go, żeby nie zauważył konkretnej tablicy rejestracyjnej - a potem zapomnieć, że ją widział...?

Kiedyś jakiś badacz AI odkryje, jak oddzielić ścieżki danych i kontroli. Do tego czasu jednak będziemy musieli ostrożnie zastanowić się nad wykorzystaniem LLM w potencjalnie wrogich środowiskach... na przykład w Internecie. Schneier zachęca inżynierów do znalezienia równowagi między ryzykiem generatywnego AI a mocą, jaką przynosi. "Używanie ich do wszystkiego jest łatwiejsze niż poświęcanie czasu na zrozumienie, jakiego rodzaju specjalizowany AI jest zoptymalizowany do zadania".

ELI5: Bruce Schneiera, specjalista bezpieczenstwa, który mówi o tym, jak duże modele językowe mogą być podatne na ataki, podobne do tych, które były wykonywane na starych telefonach. Mówi, że problemy z bezpieczeństwem wynikają z tego, że dane i polecenia są pomieszane ze sobą. To sprawia, że systemy opracowane na bazie tych modeli są narażone na ataki. Schneier mówi, że choć możliwe jest znalezienie sposobów na obronę przed atakami, to problem podatności wynika z natury tych systemów.

Źródła:

Fala oburzenia użytkowników Slack

Platforma Slack wywołała falę oburzenia w związku z ujawnieniem, że pozyskiwała dane klientów, w tym wiadomości i pliki, aby tworzyć nowe modele AI i ML. Domyślnie, bez konieczności zgody użytkowników, Slack przyznał, że jego systemy analizowały dane klientów oraz informacje o użyciu (w tym wiadomości, treści i pliki), aby tworzyć modele AI/ML poprawiające oprogramowanie.

Firma twierdzi, że ma wdrożone kontrole techniczne uniemożliwiające dostęp Slacka do podstawowej zawartości i zapewnia, że dane nie będą trafiać poza miejsce pracy, ale pomimo tych zapewnień korporacyjni administratorzy Slacka korzystają z możliwości rezygnacji z pozyskiwania danych. Ten fragment komunikacji ze strony Slacka wywołał kontrowersje w mediach społecznościowych z powodu uświadomienia sobie, że treści w bezpośrednich wiadomościach oraz inne wrażliwe treści zamieszczone na Slacku były wykorzystywane do tworzenia modeli AI/ML i że rezygnacja wymaga wysłania prośby drogą mailową: „Jeśli chcesz wykluczyć swoje dane klientów z globalnych modeli Slacka, możesz zrezygnować. Aby zrezygnować, prosimy, aby właściciele organizacji, przestrzeni roboczych lub główny właściciel skontaktowali się z naszym zespołem Obsługi Klienta pod adresem [email protected] podając adres URL swojej przestrzeni roboczej/organizacji i zawierając w temacie „Prośba o wykluczenie z globalnego modelu Slacka”.

ELI5: Firma Slack używa danych klientów, takich jak wiadomości i pliki, do tworzenia sztucznej inteligencji. Nawet jeśli firma zapewnia, że dane są bezpieczne, użytkownicy mogą poprosić o wykluczenie swoich danych z tych analiz. Trzeba wysłać prośbę drogą mailową do firmy.

Źródła:

Microsoft tworzy tajną usługę Generative AI odseparowaną od Internetu dla amerykańskich szpiegów

Microsoft wdrożył model Generative AI całkowicie odseparowany od Internetu, mówiąc, że amerykańskie agencje wywiadowcze mogą teraz bezpiecznie wykorzystać potężną technologię do analizy informacji o najwyższym stopniu tajności.

Z raportu: To pierwszy raz, kiedy duży model językowy działa całkowicie odseparowany od Internetu, powiedział wysoki przedstawiciel tej amerykańskiej firmy. Większość modeli AI, w tym ChatGPT firmy OpenAI, polega na usługach chmurowych do nauki i wnioskowania na podstawie danych, ale Microsoft chciał dostarczyć prawdziwie bezpieczny system dla amerykańskiej społeczności wywiadowczej. Agencje szpiegowskie na całym świecie chcą wykorzystać generatywną AI do pomocy w zrozumieniu i analizie rosnącej ilości informacji poufnych generowanych codziennie, ale muszą zrównoważyć sięganie po duże modele językowe z ryzykiem wycieku danych na zewnątrz — albo celowym hakowaniem. Microsoft wdrożył model oparty na GPT4 i kluczowe elementy go wspierające do chmury z „odseparowanym sieciowo” środowiskiem, które jest izolowane od Internetu, powiedział William Chappell, główny technolog ds. misji strategicznych i technologii w firmie Microsoft.

ELI5: Microsoft stworzył nowy model Generative AI, który działa bez połączenia z Internetem. Dzięki temu amerykańskie agencje wywiadowcze mogą bezpiecznie używać tej zaawansowanej technologii do analizy tajnych informacji. Microsoft wykorzystał model oparty na GPT4.

Źródła:

Sam Altman z OpenAI oraz inni liderzy technologii dołączą do Rady ds. Bezpieczeństwa AI

Sam Altman z OpenAI oraz dyrektorzy generalni Nvidia, Microsoft i Alphabet należą do liderów branży technologicznej, którzy dołączyli do nowej federalnej rady doradczej skoncentrowanej na bezpiecznym użytkowaniu AI w kluczowej infrastrukturze USA. Jest to kolejny krok administracji Bidena mający na celu wypełnienie regulacyjnej luki dotyczącej szybko rozwijającej się technologii. Z raportu wynika, że *Rada Bezpieczeństwa i Ochrony Sztucznej Inteligencji jest częścią rządowych działań mających na celu ochronę gospodarki, zdrowia publicznego oraz kluczowych gałęzi przemysłu przed szkodami spowodowanymi przez zagrożenia napędzane AI, powiedzieli urzędnicy USA. We współpracy z Departamentem Bezpieczeństwa Wewnętrznego, rada opracuje rekomendacje dla operatorów sieci energetycznych, dostawców usług transportowych i fabryk, między innymi, jak używać AI, zabezpieczając jednocześnie ich systemy przed potencjalnymi zakłóceniami, które mogą być spowodowane przez postępy w technologii.

Do rady, oprócz Jensena Huanga z Nvidia, Satyi Nadelli z Microsoft, Sundara Pichaia z Alphabet i innych liderów AI i technologii, dołączyli także naukowcy, liderzy praw obywatelskich oraz główni wykonawcy firm działających w sektorach infrastruktury krytycznej uznanej przez rząd federalny, w tym Kathy Warden, dyrektor generalna Northrop Grumman, oraz dyrektor generalny Delta Air Lines, Ed Bastian. Pozostali członkowie to urzędnicy publiczni, tacy jak gubernator Maryland, Wes Moore i burmistrz Seattle, Bruce Harrell, obaj demokraci.

ELI5: Byli prezesi firm takich jak Nvidia, Microsoft i Alphabet dołączyli do rady doradczej rządu USA, która ma zadanie pomagać w bezpiecznym korzystaniu z technologii AI w ważnej infrastrukturze kraju. Rada ta ma pomagać w ochronie gospodarki i zdrowia publicznego przed szkodami, jakie mogą być spowodowane przez nowe zagrożenia związane z AI. Opracuje ona zalecenia dla firm, takie jak jak używać AI w bezpieczny sposób w systemach energetycznych, transportowych i fabrykach. Do rady dołączyli też naukowcy, prawnicy oraz osoby kierujące firmami sektorów krytycznej infrastruktury, uznanej przez rząd, aby razem pomóc w tworzeniu odpowiednich zasad i ochrony przed nowymi technologicznymi zagrożeniami.

Źródła: