Apple pracuje nad robotami zasilanymi przez LLM, donosi raport

Apple potajemnie opracowuje zrobotyzowane urządzenia oparte na generatywnej sztucznej inteligencji, w tym robotyczne ramię stołowe z wyświetlaczem podobnym do iPada i mobilnego robota do prac domowych, donosi Bloomberg News, powołując się na osoby zaznajomione z tą sprawą.

ELI5: Firma Apple pracuje nad robotami, które pomogą w domu, mają one m.in. ruchome ramię z ekranem jak iPad oraz małego robota do sprzątania, informuje Bloomberg News.

Źródła:

Artyści usuwają Instagram w proteście przeciwko Meta AI

Niektórzy artyści przeskakują do anty-AI aplikacji portfolio Cara po tym, jak Meta zaczęła wykorzystywać zawartość Instagrama do trenowania swoich modeli AI. Fast Company wyjaśnia: Aplikacja portfolio reklamuje się jako platforma, która chroni obrazy artystów przed wykorzystywaniem ich do trenowania sztucznej inteligencji i zezwala na publikowanie treści AI tylko wtedy, gdy są one wyraźnie oznaczone. Biorąc pod uwagę liczbę nowych użytkowników aplikacji Cara w ciągu ostatnich kilku dni, wydaje się, że istnieje taka potrzeba. Między 31 maja a 2 czerwca baza użytkowników Cara potroiła się z mniej niż 100 000 do ponad 300 000 profili, osiągając szczyt popularności w sklepie z aplikacjami.

Cara to aplikacja społecznościowa dla twórców, w której użytkownicy mogą publikować zdjęcia swoich dzieł sztuki, memy lub po prostu własne przemyślenia tekstowe. Pod wieloma względami jest ona podobna do głównych platform społecznościowych, takich jak X (dawniej Twitter) i Instagram. Użytkownicy mogą uzyskać dostęp do Cara za pośrednictwem aplikacji mobilnej lub przeglądarki. Obie opcje są bezpłatne. Sam interfejs użytkownika przypomina skoncentrowane na sztuce połączenie X i Instagrama. W rzeczywistości niektóre elementy interfejsu użytkownika wydają się być zaczerpnięte bezpośrednio z innych serwisów społecznościowych. (Nie jest to najbardziej innowacyjne podejście, ale jest strategiczne: jako nowa aplikacja, wszelkie bariery dla potencjalnej adopcji muszą być niskie).

Cara nie trenuje żadnych modeli sztucznej inteligencji na swoich treściach, ani nie pozwala na to stronom trzecim. Według strony FAQ Cara, aplikacja ma na celu ochronę użytkowników przed AI poprzez automatyczne wdrażanie tagów "NoAI" we wszystkich swoich postach. Witryna twierdzi, że te tagi "mają na celu poinformowanie robotów AI, aby nie pobierały treści z Cara". Ostatecznie wydaje się, że są to tagi metadanych html, które grzecznie proszą złych aktorów, aby nie podejmowali żadnych działań i jest mało prawdopodobne, aby miały one jakąkolwiek faktyczną wagę prawną. Cara również przyznaje się do tego, ostrzegając swoich użytkowników, że tagi nie są "w pełni kompleksowym rozwiązaniem i nie zapobiegną całkowicie dedykowanym scraperom". Mając to na uwadze, Cara ocenia system tagowania "NoAI" jako "niezbędny pierwszy krok w budowaniu przestrzeni, która jest rzeczywiście przyjazna dla artystów - takiej, która szanuje ich jako twórców i nie wybiera ich pracy do nieetycznego skrobania AI bez ich zgody".

W grudniu Cara uruchomiła kolejne narzędzie o nazwie Cara Glaze, aby bronić pracy swoich artystów przed złomiarzami. (Użytkownicy mogą z niego korzystać tylko wybraną liczbę razy). Glaze, opracowany przez SAND Lab na Uniwersytecie w Chicago, znacznie utrudnia modelom sztucznej inteligencji dokładne zrozumienie i naśladowanie osobistego stylu artysty. Narzędzie to działa poprzez uczenie się, w jaki sposób boty AI postrzegają dzieła sztuki, a następnie wprowadzanie zestawu minimalnych zmian, które są niewidoczne dla ludzkiego oka, ale mylące dla modelu AI. Następnie bot AI ma trudności z "przetłumaczeniem" stylu artystycznego i generuje wypaczone rekonstrukcje. W przyszłości Cara planuje również wdrożyć Nightshade, inne oprogramowanie Uniwersytetu w Chicago, które pomaga chronić dzieła sztuki przed oszustami AI. Nightshade "zatruwa" dane treningowe AI, dodając niewidzialne piksele do grafiki, które mogą spowodować, że oprogramowanie AI całkowicie źle zrozumie obraz. Oprócz tworzenia osłon przed eksploracją danych, Cara korzysta również z usług strony trzeciej do wykrywania i moderowania wszelkich dzieł sztuki AI, które są publikowane w witrynie. Grafiki inne niż ludzkie są zabronione, chyba że zostały odpowiednio oznaczone przez autora.

ELI5: Artystom zaleca się korzystanie z aplikacji portfolio o nazwie Cara, ponieważ chroni ona ich obrazy przed wykorzystaniem do trenowania sztucznej inteligencji. Aplikacja umożliwia artystom publikowanie swoich dzieł sztuki w sposób bezpieczny i bez obaw o nieautoryzowane wykorzystanie. Dodatkowo, Cara wykorzystuje narzędzia, takie jak Cara Glaze i Nightshade, aby dodatkowo zabezpieczyć prace przed AI. Cała platforma ma na celu zapewnienie artystom pełnej kontroli nad swoją twórczością.

Źródła:

Konsultant polityczny odpowiedzialny za fałszywe rozmowy automatyczne

Konsultant polityczny Steven Kramer staje przed grzywną w wysokości 6 milionów dolarów i ponad dwudziestoma stawianymi zarzutami karnymi za wykorzystanie generowanie przez sztuczną inteligencję fałszywych rozmów automatycznych naśladujących głos Prezydenta Joe Bidena, aby wprowadzić w błąd wyborców w New Hampshire przed prawyborami prezydenckimi. Według Associated Press: Federalna Komisja Łączności powiedziała, że zaproponowana grzywna dla Stevena Kramera jest pierwszą w historii dotyczącą technologii generatywnej sztucznej inteligencji. Firma oskarżona o nadawanie połączeń, Lingo Telecom, staje przed grzywną w wysokości 2 milionów dolarów, choć w obu przypadkach strony mogą zawrzeć ugodę lub dalej negocjować, oświadczyła FCC. Kramer przyznał się do zorganizowania wiadomości wysłanej do tysięcy wyborców dwa dni przed pierwszymi w kraju prawyborami 23 stycznia. Wiadomość odtwarzała głos wygenerowany przez sztuczną inteligencję podobny do Demokratycznego prezydenta, który użył jego frazy „Co za gromadka bzdur” i fałszywie sugerował, że głosowanie w prawyborach uniemożliwi wyborcom oddanie głosów w listopadzie.

Kramer staje przed 13 zarzutami przestępstw, w których zarzuca się mu naruszenie prawa New Hampshire dotyczącego próby odstraszania kogoś od głosowania za pomocą wprowadzających w błąd informacji. Stawiane mu jest także 13 zarzutów wykroczenia, oskarżając go o fałszywe przedstawianie siebie jako kandydata własnym postępowaniem lub postępowaniem innej osoby. Zarzuty zostały zgłoszone w czterech hrabstwach i będą prowadzone przez biuro prokuratora generalnego stanu. Prokurator Generalny John Formella powiedział, że New Hampshire jest zobowiązane do zapewnienia, że jego wybory „pozostaną wolne od nielegalnych zakłóceń”.

Kramer, który jest właścicielem firmy specjalizującej się w projektach zachęcających do głosowania, nie odpowiedział na wiadomość e-mail z prośbą o komentarz w czwartek. Powiedział Associated Press w lutym, że nie próbował wpłynąć na wynik wyborów, ale raczej chciał dać sygnał ostrzegawczy na temat potencjalnych zagrożeń sztucznej inteligencji, gdy opłacił nowoorleańskiego magika do stworzenia nagrania. „Być może dzisiaj jestem złoczyńcą, ale uważam, że ostatecznie mamy lepszy kraj i lepszą demokrację dzięki temu, co zrobiłem, celowo,” powiedział Kramer w lutym.

ELI5: Steven Kramer, który pomaga ludziom w kampaniach politycznych, mógł naruszyć przepisy ustawy w New Hampshire, gdy użył fałszywych rozmów, w których naśladowany był głos prezydenta Joe Bidena. Została nałożona na niego grzywna w wysokości 6 milionów dolarów i postawione zarzuty karne. Jego firma, Lingo Telecom, również stanęła przed 2 milionową grzywną. Kramer przyznał się do wysyłania fałszywych połączeń przed wyborami, ale twierdzi, że chciał tylko zasygnalizować potencjalne zagrożenia związane z sztuczną inteligencją. Prokurator Generalny stanu Nowy Hampshire zapewnił, że wybory w stanie powinny być wolne od nielegalnych działań.

Źródła:

Mark Zuckerberg tworzy zespół wykonawców technicznych do Rady Doradczej ds. AI

Mark Zuckerberg zebrał kilku swoich kolegów z branży technologicznej do rady doradczej, aby doradzać Meta w zakresie sztucznej inteligencji i rozwoju produktów. Grupa Doradcza Meta będzie zapraszana na okresowe spotkania z zespołem zarządzającym Metą, informuje Bloomberg. Jej członkami są: CEO i współzałożyciel Stripe Patrick Collison, były CEO GitHub Nat Friedman, CEO Shopify Tobi Lutke oraz były wykonawca Microsoftu i inwestor Charlie Songhurst. "Nabrałem głębokiego szacunku dla tej grupy ludzi i ich osiągnięć w swoich dziedzinach, i jestem wdzięczny, że chcą oni dzielić się swoimi perspektywami z Metą w tak ważnym czasie, gdy podejmujemy nowe możliwości z AI i metaverse" - napisał Zuckerberg w wewnętrznej notatce do pracowników Mety, cytowany przez Bloomberga.

Rada doradcza różni się od 11-osobowej rady dyrektorów Mety, ponieważ jej członkowie nie są wybierani przez akcjonariuszy, ani nie mają obowiązku lojalności wobec Mety, poinformował Bloomberga rzecznik Mety. Rzecznik powiedział, że mężczyźni nie otrzymają wynagrodzenia za swoje role w radzie doradczej. TechCrunch zauważa, że rada obejmuje "tylko białych mężczyzn." "To różni się od faktycznej rady dyrektorów Mety i jej Rady Nadzorczej, która jest bardziej zróżnicowana pod względem płci i rasowym" - informuje TechCrunch. "Warto zauważyć, że rada doradcza ds. AI składa się wyłącznie z biznesmenów i przedsiębiorców, a nie etyków ani osób z akademickim czy głębokim tłem badawczym... dobrze udowodniono wielokrotnie, że AI nie jest jak inne produkty. To ryzykowny biznes, a konsekwencje złego wykonania mogą być daleko idące, szczególnie dla grup marginalizowanych".

ELI5: Mark Zuckerberg poprosił kilku swoich przyjaciół z branży komputerowej o pomoc w radzeniu Meta w kwestiach sztucznej inteligencji i nowych produktów. Niektórzy z tych ludzi będą spotykać się z zespołem Meta, żeby wspólnie myśleć o nowych pomysłach. Rada ta jest inna od zwykłej rady dyrektorów, ponieważ nie została wybrana przez właścicieli firmy, i nie mają obowiązku działać tylko na korzyść Meta. Mężczyźni nie dostaną pieniędzy za udział w radzie doradczej. Warto zauważyć, że w tej radzie są tylko biali mężczyźni, co jest inne niż w innych organach nadzorczych, gdzie są różne osoby z różnych środowisk.

Źródła:

UE ustanawia wzorzec dla reszty świata dzięki przełomowym prawom dotyczącym sztucznej inteligencji

Raport agencji Reuters: Przepisy dotyczące sztucznej inteligencji w Europie, które wejdą w życie w przyszłym miesiącu po tym, jak państwa UE zatwierdziły porozumienie polityczne osiągnięte w grudniu, ustanawiają potencjalny globalny wzorzec dla technologii stosowanej w biznesie i życiu codziennym. Akt dotyczący sztucznej inteligencji Unii Europejskiej jest bardziej kompleksowy niż lekki, dobrowolny model zgodności stosowany w Stanach Zjednoczonych, podczas gdy podejście Chin ma na celu utrzymanie stabilności społecznej i kontroli państwa. Głosowanie państw UE nastąpiło dwa miesiące po tym, jak unijni ustawodawcy poparli ustawodawstwo dotyczące sztucznej inteligencji opracowane przez Komisję Europejską w 2021 roku, po dokonaniu szeregu kluczowych zmian.

USTAWA w sprawie sztucznej inteligencji nakłada ścisłe obowiązki transparentności na systemy sztucznej inteligencji wysokiego ryzyka, podczas gdy wymagania takie dla modeli ogólnego przeznaczenia będą łagodniejsze. Ogranicza stosowanie AI przez rządy w czasie rzeczywistym do biometrycznego nadzoru w miejscach publicznych, do przypadków określonych przestępstw, zapobiegania atakom terrorystycznym i poszukiwania osób podejrzanych o najbardziej poważne przestępstwa. Nowe przepisy będą miały wpływ poza 27-krajowym blokiem - powiedział Patrick van Eecke z firmy prawniczej Cooley. "Akt będzie miał zasięg globalny. Firmy spoza UE, które wykorzystują dane klientów z UE w swoich platformach AI, będą musiały przestrzegać przepisów. Inne kraje i regiony prawdopodobnie wykorzystają Akt dotyczący sztucznej inteligencji jako wzorzec, tak jak zrobili to z RODO," powiedział, odnosząc się do przepisów UE dotyczących ochrony prywatności.

Chociaż nowe przepisy będą obowiązywać od 2026 r., zakazy stosowania sztucznej inteligencji w scoringu społecznym, przewidywaniu przestępczości i niecelowym scrapowaniu obrazów twarzy z internetu lub nagrań z monitoringu CCTV wejdą w życie już po sześciu miesiącach od momentu wejścia w życie nowego rozporządzenia. Obowiązki dla modeli AI ogólnego przeznaczenia będą obowiązywać po 12 miesiącach, a zasady dla systemów AI wbudowanych w regulowane produkty po 36 miesiącach. Kary za naruszenia wahać się będą od 8,2 miliona dolarów lub 1,5% obrotu do 35 milionów euro lub 7% globalnego obrotu, w zależności od rodzaju naruszeń.*

ELI5: W Europie będą obowiązywać nowe zasady dotyczące sztucznej inteligencji, które chronią ludzi i nakładają restrykcje na wykorzystywanie niektórych technologii. Firmy muszą być bardziej transparentne w stosowaniu AI, a niektóre praktyki, takie jak scoring społeczny czy analiza twarzy w monitoringu, będą zabronione. Kraje spoza UE, które korzystają z danych klientów z UE, też muszą się dostosować. Za nieprzestrzeganie przepisów grożą wysokie kary. Nowe regulacje będą wprowadzane stopniowo od przyszłego roku, a ich wpływ będzie odczuwalny na całym świecie.

Źródła:

Microsoft Paint otrzymuje narzędzie do generowania obrazów z wykorzystaniem sztucznej inteligencji

Microsoft Paint otrzymuje nowe narzędzie do generowania obrazów o nazwie Cocreator, które może generować obrazy na podstawie podpowiedzi tekstowych i bazgrołów.

Engadget donosi: Podczas prezentacji podczas wydarzenia Surface, firma pokazała, jak Cocreator łączy Twoje własne rysunki z podpowiedziami tekstowymi, tworząc obraz. Istnieje również „suwak kreatywności”, który pozwala kontrolować, jak bardzo chcesz, aby sztuczna inteligencja przejęła kontrolę w porównaniu z Twoją oryginalną sztuką. Jak zauważył Microsoft, połączenie podpowiedzi tekstowych i własnych pociągnięć pędzla umożliwia szybsze edycje. Może także pomóc w uzyskaniu bardziej precyzyjnego renderowania niż to, co mogłbyś osiągnąć tylko z DALL-E lub innym samym generatorem tekstu na obraz.

ELI5: Microsoft Paint dostaje nowe narzędzie nazywane Cocreator, które pomaga w tworzeniu obrazów na podstawie podpowiedzi tekstowych i bazgrołów. Dzięki temu narzędziu można łączyć własne rysunki z generowanymi i kontrolować stopień działania sztucznej inteligencji.

Źródła:

Microsoft Edge będzie dostarczał przetłumaczone audio w czasie rzeczywistym za pomocą sztucznej inteligencji

Microsoft planuje dodanie napisów lub nawet dubbingu wideo, używając sztucznej inteligencji do przetłumaczenia dźwięku na języki obce w czasie rzeczywistym w Microsoft Edge.

Podczas konferencji dla deweloperów Microsoft Build, Microsoft wymienił kilka stron, które skorzystają z nowych możliwości tłumaczenia w czasie rzeczywistym w Edge, w tym Reuters, CNBC News, Bloomberg, Coursera oraz własny LinkedIn Microsoftu. Co ciekawe, Microsoft wymienił także YouTube należące do Google jako beneficjenta możliwości tłumaczenia. Microsoft planuje przetłumaczyć wideo z hiszpańskiego na angielski oraz z angielskiego na niemiecki, hindi, włoski, rosyjski i hiszpański. Firma ma plany dodania kolejnych języków i platform wideo w przyszłości, powiedział Microsoft.

ELI5: Microsoft planuje dodać możliwość dodawania napisów lub dubbingu do filmów na stronach internetowych w przeglądarce Microsoft Edge. Dzięki sztucznej inteligencji dźwięk będzie tłumaczony na inne języki w czasie rzeczywistym. Microsoft planuje dodać więcej języków i platform wideo w przyszłości.

Źródła:

Przewodnicząca FCC proponuje zasady ujawniania treści generowanych przez sztuczną inteligencję

Przewodnicząca FCC Jessica Rosenworcel zaproponowała zasady ujawniania treści generowanych przez sztuczną inteligencję używanych w reklamach politycznych. „Jeśli zostanie przyjęta, propozycja będzie dotyczyć kwestii, czy FCC powinna wymagać, aby reklamy polityczne w radiu i telewizji ujawniały, kiedy wykorzystano treści generowane przez sztuczną inteligencję,” pisze Quartz.

FCC prosi o opinie na temat tego, czy należy wymagać ujawniania treści wygenerowanych przez sztuczną inteligencję, gdy są używane w reklamach politycznych; proponuje, aby zasady dotyczyły zarówno kandydatów, jak i reklam; prosi o opinie na temat tego, jak powinna wyglądać konkretna definicja treści generowanej przez sztuczną inteligencję, oraz proponuje, aby zasady ujawniania zostały zastosowane wobec nadawców i jednostek zaangażowanych w programowanie.

Zaproponowane zasady ujawniania nie zabraniają wykorzystywania treści generowanych przez sztuczną inteligencję w reklamach politycznych. FCC ma uprawnienia do ustanawiania zasad dotyczących reklam politycznych zgodnie z Ustawą o Reformie Kampanii Bipartyjnej. Jeśli propozycja zostanie przyjęta, FCC przeprowadzi konsultacje społeczne na temat zasad. „W miarę jak narzędzia sztucznej inteligencji stają się coraz bardziej dostępne, Komisja chce zapewnić, że konsumenci są w pełni poinformowani, gdy technologia ta jest wykorzystywana,” powiedziała Rosenworcel w oświadczeniu. „Dziś podzieliłam się z moimi kolegami propozycją, która jednoznacznie definiuje, że konsumenci mają prawo wiedzieć, kiedy są wykorzystywane narzędzia sztucznej inteligencji w reklamach politycznych, które widzą, i mam nadzieję, że szybko podejmą działania w tej sprawie.”

ELI5: Przewodnicząca FCC, Jessica Rosenworcel, przekazała propozycję dotyczącą ujawniania używania sztucznej inteligencji w reklamach politycznych. Jej celem jest, aby reklamy w radiu i telewizji jasno informowały o tym, gdy korzystają z treści stworzonych przez sztuczną inteligencję. Propozycja ma na celu zapewnienie, aby konsumenci mieli pełną świadomość, kiedy jest wykorzystywana sztuczna inteligencja. Jeśli propozycja zostanie zaakceptowana, FCC przeprowadzi konsultacje społeczne w tej sprawie.

Źródła:

Amazon planuje przeprowadzić gruntowną modernizację sztucznej inteligencji Asystenta Alexa oraz wprowadzić miesięczną subskrypcję

Według CNBC Amazon planuje ulepszyć swojego asystenta głosowego Alexa za pomocą sztucznej inteligencji generatywnej i wprowadzić go do użytkowników poprzez usługę miesięcznej subskrypcji. Chociaż jeszcze nie ustalono ceny, źródła informują, że nie będzie ona zawarta w ofercie Prime w cenie 139 dolarów rocznie.

Zespół ma teraz za zadanie uczynić Alexę urządzeniem istotnym w świetle nowej konkurencji w zakresie sztucznej inteligencji i uzasadnić zasoby i zatrudnienie, jakie Amazon jej poświęcił. Doszło do ogromnej reorganizacji, z dużą częścią zespołu przenoszącej się do zespołu ogólnej sztucznej inteligencji, czyli AGI, zgodnie z trzema źródłami. Inni wskazywali na nadmiar w Alexie, zespole składającym się z tysięcy pracowników. W 2023 roku Amazon poinformował, że sprzedał ponad 500 milionów urządzeń z obsługą Alexy, co daje firmie przyczółek wśród konsumentów.

Jedno źródło szacuje koszt korzystania ze sztucznej inteligencji generatywnej w Alexie na 2 centy za zapytanie i mówi, że wewnętrznie podjęto pomysł ceny 20 dolarów. Inne sugerują, że musiałaby być to kwota jednocyfrowego dolara, co podważyłoby inne oferty subskrypcyjne. ChatGPT od OpenAI pobiera 20 dolarów miesięcznie za swoje zaawansowane modele. Niemniej jednak wskazują na zainstalowaną bazę użytkowników Alexy, z urządzeniami w setkach milionów domów, jako na szansę. Ci, którzy pracowali nad Alexą, twierdzą, że fakt, iż jest ona już w salonach i kuchniach ludzi, sprawia, że stawka jest wyższa, a błędy bardziej kosztowne, jeśli Alexa nie zrozumie polecenia lub zapewni niepewne informacje. Amazon użyje własnego dużego modelu językowego, Tytana, w aktualizacji Alexy.

ELI5: Amazon chce ulepszyć swojego asystenta Alexa za pomocą nowej technologii. Planuje wprowadzić go do użytkowników za dodatkową opłatą miesięczną, a nie w ramach subskrypcji Prime. Jest to część większej przebudowy zespołu pracującego nad sztuczną inteligencją. Ceny jeszcze nie ustalono, ale szacunkowo korzystanie z nowych funkcji miało kosztować około 20 dolarów. Amazon liczy na dużą bazę posiadaczy urządzeń z Alexą, co może być dużą szansą na sukces.

Źródła:

DOJ dokonuje pierwszego znanego aresztowania za CSAM generowany przez AI

W tym, co uważa się za pierwszy taki przypadek, Departament Sprawiedliwości USA aresztował w zeszłym tygodniu mężczyznę z Wisconsin za generowanie i dystrybuowanie materiałów z nadużyciami seksualnymi wobec dzieci (CSAM) przy użyciu sztucznej inteligencji. Nawet jeśli nie użyto dzieci do stworzenia materiałów, DOJ "stara się ustanowić precedens sądowy, że materiały wykorzystujące są nadal nielegalne", donosi Engadget. Z raportu: DOJ twierdzi, że 42-letni inżynier oprogramowania Steven Anderegg z Holmen, WI, użył odgałęzienia otwartego generatora obrazów AI, nazwanego Stable Diffusion, do stworzenia obrazów, które następnie próbował wykorzystać, aby skusić nieletniego chłopca do sytuacji seksualnych. To ostatnie prawdopodobnie odegra kluczową rolę w ewentualnym procesie w związku z czterema zarzutami "produkcji, dystrybucji i posiadania nieprzyzwoitych wizualizacji nieletnich zaangażowanych w wyraźnie seksualne zachowania oraz przesyłania nieprzyzwoitego materiału nieletniemu w wieku poniżej 16 lat." Rząd twierdzi, że obrazy Anderegga pokazywały "nagie lub częściowo ubrane nieletnie, lubieżnie prezentujące lub dotykające swoich genitaliów albo angażujące się w stosunki seksualne z mężczyznami." DOJ twierdzi, że użył on określonych sygnałów, w tym negatywnych sygnałów (dodatkowe wskazówki dla modelu AI, mówiące mu, czego nie powinien produkować), aby pobudzić generator do tworzenia CSAM.

Generatory obrazów oparte na chmurze, takie jak Midjourney czy DALL-E 3, posiadają zabezpieczenia przeciwko tego typu działaniom, jednak Ars Technica donosi, że Anderegg rzekomo użył Stable Diffusion 1.5, wariantu z mniejszą ilością ograniczeń. Firma Stability AI powiedziała publikacji, że odgałęzienie zostało wyprodukowane przez Runway ML. Według DOJ, Anderegg komunikował się online z 15-letnim chłopcem, opisując, jak użył modelu AI do tworzenia obrazów. Agencja twierdzi, że oskarżony wysłał nastolatkowi bezpośrednie wiadomości na Instagramie, włączając wiele obrazów AI przedstawiających "nieletnich, którzy lubieżnie prezentują swoje genitalia." Co godne uznania, Instagram zgłosił obrazy do National Center for Missing and Exploited Children (NCMEC), które powiadomiło organy ścigania. Anderegg może stanąć przed wyrokiem od pięciu do 70 lat pozbawienia wolności jeśli zostanie skazany na wszystkie cztery zarzuty. Obecnie przebywa w areszcie federalnym przed przesłuchaniem zaplanowanym na 22 maja.

ELI5: Departament Sprawiedliwości w USA aresztował mężczyznę za używanie sztucznej inteligencji do tworzenia i rozpowszechniania nielegalnych materiałów z nadużyciami seksualnymi dzieci. Mężczyzna próbował skusić nieletniego chłopca za pomocą stworzonych przez siebie obrazów. Teraz stoi przed sądem i może zostać skazany na wiele lat więzienia. To ważne, że platforma społecznościowa, na której działał, zgłosiła podejrzaną działalność.

Źródła: