Apple prezentuje Apple Intelligence

Zgodnie z plotkami, Apple zaprezentowało Apple Intelligence, długo oczekiwany krok w kierunku generatywnej sztucznej inteligencji (AI), obiecując wysoce spersonalizowane doświadczenia zbudowane z myślą o bezpieczeństwie i prywatności. Funkcja, określana jako "A.I.", zostanie zintegrowana z różnymi systemami operacyjnymi Apple, w tym iOS, macOS i najnowszym, VisionOS. Dyrektor generalny Tim Cook powiedział, że Apple Intelligence wykracza poza sztuczną inteligencję, nazywając ją "osobistą inteligencją" i "kolejnym dużym krokiem dla Apple".

Apple Intelligence opiera się na dużych modelach językowych i inteligencji, a większość przetwarzania odbywa się lokalnie na najnowszym krzemie Apple. Prywatna chmura obliczeniowa jest dodawana w celu obsługi bardziej intensywnych zadań przy jednoczesnym zachowaniu prywatności użytkownika. Aktualizacja obejmuje również znaczące zmiany w Siri, wirtualnym asystencie Apple, który będzie teraz obsługiwał wpisywane zapytania i głębszą integrację z różnymi aplikacjami, w tym aplikacjami innych firm. Integracja ta umożliwi użytkownikom wykonywanie złożonych zadań bez przełączania się między wieloma aplikacjami.

Apple Intelligence będzie wdrażane w najnowszych wersjach systemów operacyjnych Apple, w tym iOS i iPadOS 18, macOS Sequoia i visionOS 2.

ELI5: Apple zaprezentowało nową funkcję o nazwie Apple Intelligence, która wprowadza zaawansowaną sztuczną inteligencję do systemów operacyjnych takich jak iOS, macOS i VisionOS. Nowa funkcja ma dostarczać użytkownikom spersonalizowane i bezpieczne doświadczenia. Apple skupia się na zapewnieniu prywatności użytkowników. Zmiany obejmują ulepszenia w Siri, wirtualnym asystencie Apple, który teraz będzie mógł obsługiwać tekstowe zapytania i lepiej współpracować z różnymi aplikacjami, nawet z innych firm. Źródła:

Stable Diffusion 3 zmienia ludzkie ciała dzięki filtrom nagości

Z Ars Technica: W środę, Stability AI wydało wagi dla Stable Diffusion 3 Medium, modelu syntezy obrazu AI, który zamienia podpowiedzi tekstowe w obrazy generowane przez AI. Jego pojawienie się zostało jednak wyśmiane w Internecie, ponieważ generuje obrazy ludzi w sposób, który wydaje się być krokiem wstecz w stosunku do innych najnowocześniejszych modeli syntezy obrazu, takich jak Midjourney lub DALL-E 3. W rezultacie może z łatwością produkować dzikie, anatomicznie niepoprawne wizualne obrzydliwości. Wątek na Reddicie zatytułowany "Czy to wydanie ma być żartem? SD3-2B" szczegółowo opisuje spektakularne porażki SD3 Medium w renderowaniu ludzi, zwłaszcza ludzkich kończyn, takich jak dłonie i stopy. Inny wątek zatytułowany "Dlaczego SD3 jest tak złe w generowaniu dziewczyn leżących na trawie?" pokazuje podobne problemy, ale dla całych ludzkich ciał.

Fani obrazów AI jak dotąd obwiniają anatomię Stable Diffusion 3 za niepowodzenia związane z naleganiem Stability na odfiltrowanie treści dla dorosłych (często nazywanych treściami "NSFW") z danych treningowych SD3, które uczą model generowania obrazów. "Wierzcie lub nie, ale silne cenzurowanie modelu pozbywa się również ludzkiej anatomii, więc... tak właśnie się stało" - napisał w wątku jeden z użytkowników Reddita. Wydanie Stable Diffusion 2.0 w 2023 roku miało podobne problemy z dokładnym przedstawieniem ludzi, a badacze sztucznej inteligencji wkrótce odkryli, że cenzurowanie treści dla dorosłych zawierających nagość również poważnie ogranicza zdolność modelu sztucznej inteligencji do generowania dokładnej ludzkiej anatomii. W tym czasie Stability AI zmieniło kurs z SD 2.1 i SD XL, odzyskując niektóre zdolności utracone przez wykluczenie treści NSFW. "Działa dobrze, o ile na zdjęciu nie ma ludzi, myślę, że ich ulepszony filtr nsfw do filtrowania danych treningowych zdecydował, że wszystko, co humanoidalne, jest nsfw" - napisał inny Redditor.

Zasadniczo, za każdym razem, gdy monit skupia się na koncepcji, która nie jest dobrze reprezentowana w zbiorze danych szkoleniowych, model obrazu konfabuluje swoją najlepszą interpretację tego, o co prosi użytkownik. Czasami może to być całkowicie przerażające. Korzystając z bezpłatnej wersji demonstracyjnej SD3 online na Hugging Face, uruchomiliśmy podpowiedzi i zobaczyliśmy podobne wyniki do tych zgłaszanych przez innych. Na przykład, zapytanie "mężczyzna pokazujący swoje ręce" zwróciło obraz mężczyzny trzymającego dwie gigantyczne dłonie odwrócone do tyłu, chociaż każda dłoń miała co najmniej pięć palców*.

ELI5: Firma Stablity AI stworzyła nowy model AI, który może zamieniać tekstowe opisy na obrazy. Niestety, model ten ma problemy z generowaniem obrazów ludzi, co wywołało krytykę w Internecie. Ograniczenia wynikają z tego, że model został źle nauczony poprzez cenzurowanie treści dla dorosłych w danych treningowych. Użytkownicy zgłaszają, że model może generować dziwne i anatomicznie niepoprawne wizualizacje ludzi. Na przykład, zamiast obrazu mężczyzny pokazującego ręce, model stworzył obraz mężczyzny trzymającego gigantyczne dłonie odwrócone do tyłu.

Źródła:

Turecki student aresztowany za używanie sztucznej inteligencji do oszukiwania na egzaminie uniwersyteckim

Tureckie władze aresztowały studenta za oszukiwanie podczas egzaminu wstępnego na uniwersytet poprzez używanie prowizorycznego urządzenia połączonego z oprogramowaniem AI do odpowiadania na pytania.

Z raportu: Student został zauważony podczas egzaminu w weekend, zachowując się w podejrzany sposób i został zatrzymany przez policję, zanim został formalnie aresztowany i wysłany do więzienia w oczekiwaniu na proces. Inna osoba, która pomagała studentowi, również została zatrzymana.

ELI5: Tureckie władze złapały studenta za oszukiwanie na egzaminie używając AI i aresztowały go.

Źródła:

Raspberry Pi 5 otrzymuje aktualizację AI

Raspberry Pi zaprezentowało dziś nowy zestaw, który dodaje funkcjonalność AI do Raspberry Pi 5. ZDNet donosi: Zestaw Raspberry Pi AI łączy akcelerator AI Hailo 8L w formacie M.2 z Raspberry Pi M.2 HAT+, tworząc potężne, a jednocześnie energooszczędne rozwiązanie. Układ Hailo-8L NPU (Neural Processing Unit), zdolny do wykonywania 13 bilionów operacji na sekundę (TOPS), jest wbudowany w moduł formatu M.2 2242, który podłącza się do M.2 HAT+. Po podłączeniu do płyty Raspberry Pi 5 z najnowszym systemem operacyjnym Raspberry Pi, NPU jest automatycznie dostępny do zadań obliczeniowych AI. Moduł AI ma również bezpośredni dostęp do stosu oprogramowania kamery Raspberry Pi i współpracuje zarówno z kamerami własnej produkcji, jak i innych producentów.

NPU umożliwia Raspberry Pi 5 wykonywanie zadań AI, takich jak rozpoznawanie obiektów i twarzy, analiza ludzkiej pozy i inne. Korzystanie z NPU uwalnia procesor Raspberry Pi 5, pozwalając mu skupić się na innych zadaniach, dzięki czemu projekty są bardziej wydajne i potężne. Zestaw Raspberry Pi AI jest również kompatybilny z chłodzeniem Raspberry Pi Active Cooler, zapewniając optymalną wydajność bez przegrzewania. Dodatkowo można zakupić przezroczystą warstwę ochronną, która zapobiega uszkodzeniom płytki, zapewniając spokój ducha podczas pracy nad projektami. Zestaw AI kosztuje 70 USD. Jest dostępny u autoryzowanych sprzedawców Raspberry Pi, w tym PiHut, PiShop.us i CanaKit.

ELI5: Raspberry Pi 5 dostało nowy zestaw, który dodaje sztuczną inteligencję. Dzięki temu Raspberry Pi może teraz wykonywać zadania związane z rozpoznawaniem obiektów i twarzy oraz analizą pozy ludzi. Dzięki tej nowej funkcji Raspberry Pi może pracować wydajniej i mocniej. Zestaw AI kosztuje 70 dolarów i dostępny jest w wybranych sklepach.

Źródła:

Artyści usuwają Instagram w proteście przeciwko Meta AI

Niektórzy artyści przeskakują do anty-AI aplikacji portfolio Cara po tym, jak Meta zaczęła wykorzystywać zawartość Instagrama do trenowania swoich modeli AI. Fast Company wyjaśnia: Aplikacja portfolio reklamuje się jako platforma, która chroni obrazy artystów przed wykorzystywaniem ich do trenowania sztucznej inteligencji i zezwala na publikowanie treści AI tylko wtedy, gdy są one wyraźnie oznaczone. Biorąc pod uwagę liczbę nowych użytkowników aplikacji Cara w ciągu ostatnich kilku dni, wydaje się, że istnieje taka potrzeba. Między 31 maja a 2 czerwca baza użytkowników Cara potroiła się z mniej niż 100 000 do ponad 300 000 profili, osiągając szczyt popularności w sklepie z aplikacjami.

Cara to aplikacja społecznościowa dla twórców, w której użytkownicy mogą publikować zdjęcia swoich dzieł sztuki, memy lub po prostu własne przemyślenia tekstowe. Pod wieloma względami jest ona podobna do głównych platform społecznościowych, takich jak X (dawniej Twitter) i Instagram. Użytkownicy mogą uzyskać dostęp do Cara za pośrednictwem aplikacji mobilnej lub przeglądarki. Obie opcje są bezpłatne. Sam interfejs użytkownika przypomina skoncentrowane na sztuce połączenie X i Instagrama. W rzeczywistości niektóre elementy interfejsu użytkownika wydają się być zaczerpnięte bezpośrednio z innych serwisów społecznościowych. (Nie jest to najbardziej innowacyjne podejście, ale jest strategiczne: jako nowa aplikacja, wszelkie bariery dla potencjalnej adopcji muszą być niskie).

Cara nie trenuje żadnych modeli sztucznej inteligencji na swoich treściach, ani nie pozwala na to stronom trzecim. Według strony FAQ Cara, aplikacja ma na celu ochronę użytkowników przed AI poprzez automatyczne wdrażanie tagów "NoAI" we wszystkich swoich postach. Witryna twierdzi, że te tagi "mają na celu poinformowanie robotów AI, aby nie pobierały treści z Cara". Ostatecznie wydaje się, że są to tagi metadanych html, które grzecznie proszą złych aktorów, aby nie podejmowali żadnych działań i jest mało prawdopodobne, aby miały one jakąkolwiek faktyczną wagę prawną. Cara również przyznaje się do tego, ostrzegając swoich użytkowników, że tagi nie są "w pełni kompleksowym rozwiązaniem i nie zapobiegną całkowicie dedykowanym scraperom". Mając to na uwadze, Cara ocenia system tagowania "NoAI" jako "niezbędny pierwszy krok w budowaniu przestrzeni, która jest rzeczywiście przyjazna dla artystów - takiej, która szanuje ich jako twórców i nie wybiera ich pracy do nieetycznego skrobania AI bez ich zgody".

W grudniu Cara uruchomiła kolejne narzędzie o nazwie Cara Glaze, aby bronić pracy swoich artystów przed złomiarzami. (Użytkownicy mogą z niego korzystać tylko wybraną liczbę razy). Glaze, opracowany przez SAND Lab na Uniwersytecie w Chicago, znacznie utrudnia modelom sztucznej inteligencji dokładne zrozumienie i naśladowanie osobistego stylu artysty. Narzędzie to działa poprzez uczenie się, w jaki sposób boty AI postrzegają dzieła sztuki, a następnie wprowadzanie zestawu minimalnych zmian, które są niewidoczne dla ludzkiego oka, ale mylące dla modelu AI. Następnie bot AI ma trudności z "przetłumaczeniem" stylu artystycznego i generuje wypaczone rekonstrukcje. W przyszłości Cara planuje również wdrożyć Nightshade, inne oprogramowanie Uniwersytetu w Chicago, które pomaga chronić dzieła sztuki przed oszustami AI. Nightshade "zatruwa" dane treningowe AI, dodając niewidzialne piksele do grafiki, które mogą spowodować, że oprogramowanie AI całkowicie źle zrozumie obraz. Oprócz tworzenia osłon przed eksploracją danych, Cara korzysta również z usług strony trzeciej do wykrywania i moderowania wszelkich dzieł sztuki AI, które są publikowane w witrynie. Grafiki inne niż ludzkie są zabronione, chyba że zostały odpowiednio oznaczone przez autora.

ELI5: Artystom zaleca się korzystanie z aplikacji portfolio o nazwie Cara, ponieważ chroni ona ich obrazy przed wykorzystaniem do trenowania sztucznej inteligencji. Aplikacja umożliwia artystom publikowanie swoich dzieł sztuki w sposób bezpieczny i bez obaw o nieautoryzowane wykorzystanie. Dodatkowo, Cara wykorzystuje narzędzia, takie jak Cara Glaze i Nightshade, aby dodatkowo zabezpieczyć prace przed AI. Cała platforma ma na celu zapewnienie artystom pełnej kontroli nad swoją twórczością.

Źródła:

Inżynierowie Oprogramowania ds. Sztucznej Inteligencji Zarabiają o 100 000 Dolarów Więcej Niż Ich Koledzy

Boom sztucznej inteligencji i rosnący niedobór talentów spowodowały, że firmy płacą inżynierom oprogramowania ds. AI znacznie więcej niż ich nie-AI odpowiednikom.

Na kwiecień 2024 r. inżynierowie oprogramowania ds. AI w USA otrzymywali wynagrodzenie medianowe niemal 300 000 dolarów, podczas gdy inni technicy oprogramowania zarabiali około 100 000 dolarów mniej, zgodnie z danymi zebranymi przez stronę z danymi płacowymi Levels.fyi. Różnica płacowa, która wynosiła już około 30% na początku 2022 r., wzrosła do niemal 50%.

"Jest jasne, że firmy cenią umiejętności związane z AI i są skłonne za nie zapłacić premię, bez względu na poziom stanowiska" - napisała data scientist Alina Kolesnikova w raporcie Levels.fyi. Ta dysproporcja jest bardziej zauważalna w niektórych firmach. Na przykład firma robotaksówkowa Cruise płaci inżynierom AI na poziomie 680 500 dolarów - podczas gdy ich nie-AI koledzy zarabiają o 185 500 dolarów mniej, zgodnie z danymi Levels.fyi.

ELI5: Firmy płacą inżynierom, którzy pracują nad sztuczną inteligencją, dużo więcej niż innym programistom, ponieważ umiejętności związane z AI są bardzo poszukiwane i ważne. W Stanach Zjednoczonych inżynierowie ds. AI zarabiają średnio około 300 000 dolarów rocznie, podczas gdy inni programiści zarabiają około 100 000 dolarów mniej. Ta różnica w zarobkach wzrosła z 30% na początku 2022 r. do prawie 50% na kwiecień 2024 r.

Źródła:

Szef Meta AI twierdzi, że duże modele językowe nie osiągną ludzkiej inteligencji

Szef AI w Meta powiedział, że duże modele językowe, które napędzają produkty generatywne AI, takie jak ChatGPT, nigdy nie osiągną zdolności do rozumowania i planowania jak ludzie, skupiając się zamiast tego na radykalnym alternatywnym podejściu do stworzenia "superinteligencji" w maszynach. Yann LeCun, główny naukowiec ds. SI w gigancie mediów społecznościowych, który jest właścicielem Facebooka i Instagrama, powiedział, że LLM-y mają "bardzo ograniczone zrozumienie logiki, nie rozumieją świata fizycznego, nie mają trwałej pamięci, nie potrafią rozumować w żadnym rozsądnym znaczeniu tego słowa i nie mogą planować hierarchicznie."

W wywiadzie dla Financial Times argumentował przeciwko poleganiu na rozwoju LLM-ów w poszukiwaniu osiągnięcia ludzkiej inteligencji, ponieważ te modele mogą poprawnie odpowiadać na polecenia tylko wtedy, gdy zostały zasilone odpowiednimi danymi szkoleniowymi i są więc „wewnętrznie niebezpieczne”. Zamiast tego pracuje nad opracowaniem zupełnie nowej generacji systemów AI, która ma nadzieję napędzić maszyny o ludzkiej inteligencji, chociaż przyznał, że ta wizja może zająć 10 lat. Meta wkłada miliardy dolarów w rozwijanie własnych LLM-ów, gdy generatywna AI rośnie w siłę, dążąc do dogonienia konkurencyjnych grup technologicznych, w tym Microsoft-backed OpenAI i Google z Alphabetu.

ELI5: Szef AI w Meta powiedział, że duże modele językowe, takie jak ChatGPT, nie będą w stanie myśleć i planować jak ludzie. Zamiast tego, firma skupia się na opracowaniu nowych technologii AI, które mają sprawić, że maszyny będą bardziej inteligentne. Meta chce stworzyć "superinteligencję" w maszynach, ale ta praca może potrwać nawet 10 lat. Firmy inwestują miliardy dolarów w rozwijanie technologii AI, aby nadążyć za konkurencją.

Źródła:

Microsoft uruchamia bezpłatnego asystenta AI dla wszystkich nauczycieli w USA w ramach umowy z Khan Academy

Microsoft nawiązał współpracę z organizacją Khan Academy, aby zapewnić wszystkim nauczycielom w Stanach Zjednoczonych bezpłatnego asystenta AI.

Khanmigo dla Nauczycieli, który pomaga nauczycielom przygotować lekcje do klasy, jest darmowy dla wszystkich nauczycieli w USA od wtorku. Program może pomóc w tworzeniu lekcji, analizowaniu wyników uczniów, planowaniu zadań i zapewnieniu nauczycielom możliwości wzbogacenia własnego rozwoju. "W odróżnieniu od większości rzeczy w technologii i edukacji w przeszłości, gdzie to które były 'miłym dodatkiem', to jest 'konieczne' dla wielu nauczycieli," powiedział Sal Khan, założyciel i CEO Khan Academy, w wywiadzie dla CNBC "Squawk Box" w zeszły piątek przed podpisaniem umowy.

Khan Academy ma około 170 milionów zarejestrowanych użytkowników w ponad 50 językach na całym świecie, i podczas gdy jego filmy są najlepiej znane, to platforma interaktywnych ćwiczeń była jedną z tych, nad którą skupili się w OpenAI gdy szukali partnera do testowania GPT, który oferował społecznie pozytywne przypadki użycia.

ELI5: Microsoft i Khan Academy współpracują, aby dać nauczycielom w USA darmowego asystenta AI do pomocy w tworzeniu lekcji i analizowaniu postępów uczniów. Program może także pomóc nauczycielom w planowaniu zadań i ulepszaniu własnego rozwoju. Jest to ważne narzędzie dla nauczycieli i jest dostępne od teraz za darmo dla wszystkich nauczycieli w USA.

Źródła:

Microsoftowy nacisk na sztuczną inteligencję zagraża celowi klimatycznemu, ponieważ emisje dwutlenku węgla skoczyły o 30%

Ambitny cel Microsoftu, by do 2030 roku stać się neutralnym węglowo, jest zagrożony przez rosnące operacje związane z AI, które zwiększyły jego ślad węglowy o 30% od 2020 roku. Aby osiągnąć swoje cele, Microsoft musi szybko wdrożyć zielone technologie i poprawić efektywność w swoich centrach danych, które są kluczowe dla AI, ale mocno polegają na zasobach intensywnie emitujących węgiel. Bloomberg donosi:

„Aby teraz osiągnąć swoje cele, gigant oprogramowania będzie musiał bardzo szybko zrobić poważny postęp w uzyskaniu dostępu do zielonej stali i betonu oraz mniej energochłonnych chipów,” powiedział Brad Smith, prezes Microsoftu, w ekskluzywnym wywiadzie dla Bloomberg Green. „W 2020 roku ogłosiliśmy to, co nazwaliśmy naszym węglowym moonshotem. To było przed eksplozją sztucznej inteligencji”, powiedział. „Więc pod wieloma względami księżyc jest teraz pięć razy dalszy, jeśli pomyślisz o naszej własnej prognozie dotyczącej ekspansji sztucznej inteligencji i jej potrzeb energetycznych.”

Pomimo ogromnego zużycia energii przez AI, w rzeczywistości ma to niewielki wpływ na wzrost emisji Microsoftu - przynajmniej na papierze. To dlatego, że firma twierdzi w swoim raporcie zrównoważonego rozwoju, że jest w 100% zasilana odnawialnymi źródłami energii. Firmy stosują różne mechanizmy w celu składania takich deklaracji, których wiarygodność jest bardzo zróżnicowana. Niektóre firmy zawierają długoterminowe umowy na zakup energii (PPA) z deweloperami odnawialnej energii, gdzie przejmują część ryzyka nowej elektrowni i pomagają uruchamiać nowe farmy słoneczne i wiatrowe. W innych przypadkach firmy kupują kredyty na odnawialną energię (REC) aby twierdzić, że używają zielonej energii, ale te tanie kredyty niewiele robią, by zwiększyć popyt na zieloną energię, jak naukowcy konsekwentnie stwierdzili. Microsoft stosuje mieszankę obu podejść. Z jednej strony jest jednym z największych korporacyjnych uczestników umów na zakup energii, według BloombergNEF, które śledzi te umowy. Ale jest także ogromnym nabywcą REC, używając tych instrumentów do twierdzenia, że połowa jego zużycia energii jest czysta, według jego dokumentacji środowiskowej z 2022 roku. Używając dużej ilości REC, Microsoft zasadniczo maskuje jeszcze większy wzrost emisji. „Planem Microsoftu jest stopniowe wycofywanie się z użycia niepowiązanych REC w przyszłych latach,” powiedział rzecznik firmy. „Skupiamy się na PPA jako głównej strategii.”

Co więc jeszcze można zrobić? Smith, razem z Chief Sustainability Officer Microsoftu Melanie Nakagawa, nakreślił jasne kroki w raporcie zrównoważonego rozwoju. Najważniejsze z nich to zwiększenie efektywności, która polega na używaniu tej samej ilości energii lub mocy obliczeniowej do wykonania większej ilości pracy. To mogłoby pomóc zmniejszyć potrzebę na centra danych, co zmniejszy emisje i zużycie energii. W większości kwestii, „nasze cele klimatyczne wymagają, abyśmy wydatkowali pieniądze,” powiedział Smith. „Ale zyski z efektywności pozwolą nam faktycznie oszczędzać pieniądze.” Microsoft również przoduje w zakupie zrównoważonych paliw lotniczych, co pomogło zmniejszyć niektóre emisje związane z podróżami służbowymi. Firma chce także współpracować z tymi, którzy będą „przyspieszać przełomy” w celu tworzenia bardziej zielonej stali, betonu i paliw. Te technologie zaczynają działać na małą skalę, ale są jeszcze dalekie od dostępności w ilościach komercyjnych, nawet jeśli są drogie. Tania energia odnawialna pomogła uczynić drogę klimatyczną Microsoftu łatwiejszą. Jednak zużycie energii przez giganta technologicznego w zeszłym roku rywalizowało z małym krajem europejskim – łatwo pokonując Słowenię. Smith powiedział, że jednym z największych wąskich gardeł w dalszym uzyskiwaniu dostępu do zielonej energii jest brak linii przesyłowych z miejsc, gdzie energia jest generowana, do centrów danych. Dlatego Microsoft twierdzi, że zwiększy wysiłki lobbingowe, aby rządy przyspieszyły budowę sieci energetycznej.

Jeśli emisje Microsoftu pozostaną wysokie po 2030 roku, Smith powiedział, że firma może rozważyć masowe zakupy kredytów na usuwanie węgla, chociaż nie jest to „pożądany kurs.”

„Musisz być gotów zainwestować i zapłacić za to,” powiedział Smith. Zmiany klimatyczne to „problem, który stworzyła ludzkość i który ludzkość może rozwiązać.”

ELI5: Microsoft chce przestać emitować dwutlenek węgla do 2030 roku, ale rosnące działania związane z AI zwiększają jego ślad węglowy. W firmie trzeba wprowadzić nowe technologie, takie jak zielona stal i beton oraz oszczędne w energii chipy, aby osiągnąć cel. Microsoft używa dużo energii, ale twierdzi, że jest w pełni zasilany energią odnawialną. Kupuje też kredyty na energię odnawialną. Firma pracuje nad poprawą efektywności, aby użyć mniej energii i zmniejszyć emisje. Bierze także udział w programach na rzecz zrównoważonych paliw i technologii, które mogą pomóc w zmniejszeniu śladu węglowego.

Źródła:

Fala oburzenia użytkowników Slack

Platforma Slack wywołała falę oburzenia w związku z ujawnieniem, że pozyskiwała dane klientów, w tym wiadomości i pliki, aby tworzyć nowe modele AI i ML. Domyślnie, bez konieczności zgody użytkowników, Slack przyznał, że jego systemy analizowały dane klientów oraz informacje o użyciu (w tym wiadomości, treści i pliki), aby tworzyć modele AI/ML poprawiające oprogramowanie.

Firma twierdzi, że ma wdrożone kontrole techniczne uniemożliwiające dostęp Slacka do podstawowej zawartości i zapewnia, że dane nie będą trafiać poza miejsce pracy, ale pomimo tych zapewnień korporacyjni administratorzy Slacka korzystają z możliwości rezygnacji z pozyskiwania danych. Ten fragment komunikacji ze strony Slacka wywołał kontrowersje w mediach społecznościowych z powodu uświadomienia sobie, że treści w bezpośrednich wiadomościach oraz inne wrażliwe treści zamieszczone na Slacku były wykorzystywane do tworzenia modeli AI/ML i że rezygnacja wymaga wysłania prośby drogą mailową: „Jeśli chcesz wykluczyć swoje dane klientów z globalnych modeli Slacka, możesz zrezygnować. Aby zrezygnować, prosimy, aby właściciele organizacji, przestrzeni roboczych lub główny właściciel skontaktowali się z naszym zespołem Obsługi Klienta pod adresem [email protected] podając adres URL swojej przestrzeni roboczej/organizacji i zawierając w temacie „Prośba o wykluczenie z globalnego modelu Slacka”.

ELI5: Firma Slack używa danych klientów, takich jak wiadomości i pliki, do tworzenia sztucznej inteligencji. Nawet jeśli firma zapewnia, że dane są bezpieczne, użytkownicy mogą poprosić o wykluczenie swoich danych z tych analiz. Trzeba wysłać prośbę drogą mailową do firmy.

Źródła: