Apple Usuwa Aplikacje AI Tworzące Nieuprawnione Nagie Zdjęcia z App Store
404 Media:
Apple usunął kilka aplikacji do generowania obrazów AI z App Store po tym, jak 404 Media odkryło, że te aplikacje reklamowały możliwość tworzenia zdjęć nagości bez zgody, co jest sygnałem, że operatorzy sklepów z aplikacjami zaczynają podejmować więcej działań przeciwko tego typu aplikacjom.
Ogólnie, Apple usunął trzy aplikacje z App Store, ale dopiero po tym, jak dostarczyliśmy firmie linki do konkretnych aplikacji oraz ich powiązanych reklam, co wskazuje, że firma nie była w stanie sama znaleźć aplikacji naruszających jej politykę.
Działania Apple nastąpiły po naszym poniedziałkowym raporcie, że na Instagramie reklamowane są aplikacje AI tworzące zdjęcia nagości bez zgody. Przeglądając bibliotekę reklam Meta, która archiwizuje reklamy na jej platformie, kiedy były wyświetlane, na jakich platformach i kto za nie płacił, znaleźliśmy reklamy pięciu różnych aplikacji, z których każda miała dziesiątki reklam. Dwie z reklam były dla usług internetowych, a trzy dla aplikacji w Apple App Store. Meta usunęła reklamy, gdy je zgłosiliśmy. Początkowo Apple nie odpowiedziało na prośbę o komentarz do tej historii, ale po jej publikacji skontaktowali się ze mną, prosząc o więcej informacji. We wtorek Apple poinformowało nas, że usunęło te trzy aplikacje ze swojego App Store.*
ELI5: Apple usunął kilka aplikacji z App Store, które mogły tworzyć zdjęcia nagości bez zgody. Działanie Apple nastąpiło po tym, jak 404 Media zgłosiła firmie naruszenia. To ważne, ponieważ pokazuje, że firmy jak Apple zaczynają bardziej chronić użytkowników przed takimi nieodpowiednimi aplikacjami.
Źródła: