Apple wprowadza ChatGPT do swoich aplikacji, w tym Siri

Apple wprowadza ChatGPT, chatbota opartego na sztucznej inteligencji OpenAI, do Siri i innych własnych aplikacji i funkcji w swoich systemach operacyjnych.

"Cieszymy się, że możemy współpracować z Apple, aby udostępnić ChatGPT swoim użytkownikom w nowy sposób" - powiedział w oświadczeniu Sam Altman, dyrektor generalny OpenAI. "Apple podziela nasze zaangażowanie w bezpieczeństwo i innowacje, a to partnerstwo jest zgodne z misją OpenAI, aby zaawansowana sztuczna inteligencja była dostępna dla wszystkich". Wkrótce Siri będzie mogła korzystać z ChatGPT w celu uzyskania "wiedzy specjalistycznej", która może być pomocna, twierdzi Apple. Na przykład, jeśli potrzebujesz pomysłów na menu na posiłek dla przyjaciół przy użyciu niektórych składników z ogrodu, możesz zapytać Siri, a Siri automatycznie przekaże te informacje do ChatGPT w celu uzyskania odpowiedzi po udzieleniu jej na to zgody. Do pytań zadawanych ChatGPT za pośrednictwem Siri można dołączać zdjęcia lub zadawać pytania związane z dokumentami lub plikami PDF. Apple zintegrowało również ChatGPT z ogólnosystemowymi narzędziami do pisania, takimi jak Writing Tools, które umożliwiają tworzenie treści za pomocą ChatGPT - w tym obrazów - lub zadawanie wstępnego pomysłu i wysyłanie go do ChatGPT w celu uzyskania poprawek lub zmian. Apple twierdzi, że ChatGPT w aplikacjach Apple jest bezpłatny, a dane nie są udostępniane firmie wspieranej przez Microsoft. Subskrybenci ChatGPT mogą połączyć swoje konta i uzyskać dostęp do płatnych funkcji.

Apple Intelligence - wysiłki Apple mające na celu połączenie mocy modeli generatywnych z osobistym kontekstem - jest bezpłatne dla właścicieli urządzeń Apple, ale działa z "iOS 18" na iPhone 15 Pro, macOS 15 i iPadOS 17.

ELI5: Apple wprowadza nowego chatbota ChatGPT do Siri i innych aplikacji. Dzięki temu możemy uzyskać pomoc w różnych sytuacjach, na przykład planując posiłki z dostępnych składników z ogrodu. Siri będzie korzystać z ChatGPT w celu uzyskania odpowiedzi na nasze pytania. Możemy też wykorzystywać ChatGPT w narzędziach do pisania. Usługi związane z ChatGPT będą dostępne bez dodatkowych opłat dla użytkowników sprzętu Apple, takich jak iPhone 15 Pro czy iPadOS 17.

Źródła:

Apple prezentuje Apple Intelligence

Zgodnie z plotkami, Apple zaprezentowało Apple Intelligence, długo oczekiwany krok w kierunku generatywnej sztucznej inteligencji (AI), obiecując wysoce spersonalizowane doświadczenia zbudowane z myślą o bezpieczeństwie i prywatności. Funkcja, określana jako "A.I.", zostanie zintegrowana z różnymi systemami operacyjnymi Apple, w tym iOS, macOS i najnowszym, VisionOS. Dyrektor generalny Tim Cook powiedział, że Apple Intelligence wykracza poza sztuczną inteligencję, nazywając ją "osobistą inteligencją" i "kolejnym dużym krokiem dla Apple".

Apple Intelligence opiera się na dużych modelach językowych i inteligencji, a większość przetwarzania odbywa się lokalnie na najnowszym krzemie Apple. Prywatna chmura obliczeniowa jest dodawana w celu obsługi bardziej intensywnych zadań przy jednoczesnym zachowaniu prywatności użytkownika. Aktualizacja obejmuje również znaczące zmiany w Siri, wirtualnym asystencie Apple, który będzie teraz obsługiwał wpisywane zapytania i głębszą integrację z różnymi aplikacjami, w tym aplikacjami innych firm. Integracja ta umożliwi użytkownikom wykonywanie złożonych zadań bez przełączania się między wieloma aplikacjami.

Apple Intelligence będzie wdrażane w najnowszych wersjach systemów operacyjnych Apple, w tym iOS i iPadOS 18, macOS Sequoia i visionOS 2.

ELI5: Apple zaprezentowało nową funkcję o nazwie Apple Intelligence, która wprowadza zaawansowaną sztuczną inteligencję do systemów operacyjnych takich jak iOS, macOS i VisionOS. Nowa funkcja ma dostarczać użytkownikom spersonalizowane i bezpieczne doświadczenia. Apple skupia się na zapewnieniu prywatności użytkowników. Zmiany obejmują ulepszenia w Siri, wirtualnym asystencie Apple, który teraz będzie mógł obsługiwać tekstowe zapytania i lepiej współpracować z różnymi aplikacjami, nawet z innych firm. Źródła:

Jak amerykański szpital wykorzystuje sztuczną inteligencję do analizy zdjęć rentgenowskich - z pomocą Red Hat

W tym tygodniu Red Hat ogłosił, że jeden z wiodących amerykańskich szpitali pediatrycznych wykorzystuje sztuczną inteligencję do analizy zdjęć rentgenowskich, "aby poprawić jakość obrazu oraz szybkość i dokładność jego interpretacji".

CTO firmy Red Hat powiedział, że posunięcie to jest przykładem "pozytywnego wpływu, jaki sztuczna inteligencja może mieć na opiekę zdrowotną". Zanim Bostoński Szpital Dziecięcy rozpoczął pilotaż AI w radiologii, pomiary ilościowe musiały być wykonywane ręcznie, co było czasochłonnym zadaniem. Inne, bardziej złożone analizy obrazu były wykonywane całkowicie offline i poza klinicznym przepływem pracy. W dziedzinie, w której czas ma kluczowe znaczenie, szpital pilotuje Red Hat OpenShift za pośrednictwem ChRIS Research Integration Service, internetowej platformy obrazów medycznych. Aplikacja AI działająca w ChRIS na fundamencie Red Hat OpenShift może automatycznie badać zdjęcia rentgenowskie, identyfikować najbardziej wartościowe obrazy diagnostyczne spośród tysięcy wykonanych zdjęć i oznaczać wszelkie rozbieżności. Skraca to czas interpretacji dla radiologów.

Ale wydaje się, że jest to również duża wygrana dla otwartości: Innowacje opracowane wewnętrznie można natychmiast przenieść do publicznych chmur badawczych, takich jak Massachusetts Open Cloud, gdzie można udostępniać dane na dużą skalę i wspierać dodatkowe innowacje. Bostoński Szpital Dziecięcy dąży do rozszerzenia zasięgu zaawansowanych rozwiązań opieki zdrowotnej na całym świecie poprzez takie podejście, zwiększając ich wpływ na dobrostan pacjentów na całym świecie.

"Red Hat wierzy, że otwartość uwalnia potencjał świata" - czytamy w komunikacie - "w tym potencjał dzielenia się wiedzą i wzajemnego korzystania z odkryć. Ponadto Red Hat wierzy, że innowacje - w tym sztuczna inteligencja - powinny być dostępne wszędzie, dzięki czemu każda aplikacja w dowolnym miejscu stanie się rzeczywistością.

"Dzięki otwartemu oprogramowaniu innowacje oparte na sztucznej inteligencji w hybrydowych środowiskach IT, które mogą prowadzić do szybszych przełomów klinicznych i lepszych wyników pacjentów, stają się rzeczywistością".

ELI5: Firma Red Hat wspiera szpital w ulepszeniu analizy zdjęć rentgenowskich za pomocą sztucznej inteligencji. Dzięki temu można szybciej i lepiej interpretować obrazy, co pomaga radiologom. Wykorzystanie otwartego oprogramowania pozwala na przenoszenie nowych rozwiązań do chmur badawczych i dzielenie się nimi globalnie, co zwiększa wpływ na opiekę zdrowotną na całym świecie. Otwartość i innowacje mają pomóc w poprawie wyników pacjentów i przyspieszeniu postępu w medycynie.

Źródła:

ChatGPT, Claude i Perplexity upadły w tym samym czasie

Za pośrednictwem TechCrunch: Po wielogodzinnej awarii, która miała miejsce we wczesnych godzinach porannych, chatbot ChatGPT firmy OpenAI ponownie przestał działać - ale tym razem nie był to jedyny dostawca sztucznej inteligencji, którego to dotyczyło. We wtorek rano zarówno Claude, jak i Perplexity firmy Anthropic również zaczęły widzieć problemy, ale zostały one szybciej rozwiązane. Gemini Google wydaje się obecnie działać, choć według niektórych raportów użytkowników mógł również na krótko przejść w tryb offline.

Nietypowe jest to, że trzech głównych dostawców sztucznej inteligencji nie działa w tym samym czasie, co może sygnalizować szerszy problem z infrastrukturą lub problem na skalę internetową, taki jak na przykład te, które wpływają na wiele serwisów społecznościowych jednocześnie. Możliwe jest również, że problemy Claude i Perplexity nie były spowodowane błędami lub innymi problemami, ale otrzymaniem zbyt dużego ruchu w krótkim czasie z powodu awarii ChatGPT.

ELI5: Trzy główne modele AI przestały działać jednocześnie. To może oznaczać duży problem z internetem albo infrastrukturą komputerową wykorzystywaną przez te usługi.

Źródła:

Google pracuje również nad funkcją przypominającą Recall dla Chromebooków

W wywiadzie z Markiem Hachmanem z PCWorld, szef Google ChromeOS powiedział, że firma powoli bada funkcję podobną do Recall dla Chromebooków, nazwaną "pamięcią". Oparta na sztucznej inteligencji funkcja Recall firmy Microsoft dla systemu Windows 11 została zaprezentowana na konferencji Build 2024 w zeszłym miesiącu. Funkcja ta ma na celu usprawnienie wyszukiwania lokalnego, czyniąc je tak wydajnym, jak wyszukiwanie w sieci, umożliwiając użytkownikom szybkie wyszukiwanie wszystkiego, co widzieli na swoim komputerze. Korzystając z poleceń głosowych i wskazówek kontekstowych, Recall może znaleźć określone wiadomości e-mail, dokumenty, wątki czatu, a nawet slajdy PowerPoint. Biorąc pod uwagę oczywiste obawy dotyczące prywatności i bezpieczeństwa, wielu użytkowników potępiło tę funkcję, opisując ją jako "dosłowne oprogramowanie szpiegujące lub złośliwe oprogramowanie".

PCWorld donosi: Usiadłem z Johnem Solomonem, wiceprezesem Google odpowiedzialnym za ChromeOS. Microsoft, oczywiście, wprowadza na rynek komputery Copilot+ wraz z Qualcomm Snapdragon X Elite - układem Arm. A Chromebooki mają oczywiście długą historię z Arm. Ale to na Recall w końcu trafiliśmy - a dokładniej na sposób, w jaki Google wkracza w tę samą przestrzeń. Recall jest świetny w teorii, ale w praktyce może być bardziej problematyczny. Przypomnijmy sobie demo Project Astra, które Google zaprezentowało na konferencji Google I/O. Jednym z kluczowych, choć niedocenianych aspektów było to, jak Astra "pamiętała", gdzie znajdują się okulary użytkownika.

Astra nie wydawała się być doświadczeniem, które można by odtworzyć na Chromebooku. Większość użytkowników nie będzie nosić ze sobą Chromebooka (urządzenia, które zazwyczaj nie ma tylnej kamery), aby wizualnie identyfikować rzeczy. Solomon z szacunkiem się nie zgodził. "Myślę, że jest w tym element, który jest bardzo istotny, a mianowicie pojęcie posiadania pewnego rodzaju kontekstu i pamięci o tym, co działo się na urządzeniu" - powiedział Solomon. "Pomyśl więc o czymś takim, jak przeglądanie ekranu, a następnie odejście, rozproszenie uwagi, rozmowa z kimś przy dystrybutorze wody i powrót. Mógłbyś mieć jakąś funkcję przewijania do tyłu, mógłbyś mieć jakąś funkcję nagrywania, która w pewnym sensie przywróciłaby cię do tego. Myślę więc, że jest w tym coś wspólnego".

"W rzeczywistości rozmawiamy z zespołem o tym, gdzie może być przypadek użycia" - dodał Solomon o koncepcji "pamięci". "Ale myślę, że jest tam coś, jeśli chodzi o przechwytywanie ekranu w sposób, który oczywiście nie wydaje się przerażający". Brzmi to bardzo podobnie do Recall! Ale Solomon szybko zauważył, że jedną z rzeczy, które zniechęciły użytkowników do Recall, był brak kontroli użytkownika: decydowanie, kiedy, gdzie i czy ją włączyć. "Nie zamierzam mówić o Recall, ale myślę, że powodem, dla którego niektórzy ludzie uważają, że jest to przerażające, jest to, że nie wydaje się to przydatne i nie wydaje się, że jest to coś, co zainicjowali lub że odnoszą z tego wyraźną korzyść" - powiedział Solomon. "Jeśli użytkownik mówi coś w stylu - powiedzmy, że mamy spotkanie i omawiamy złożone tematy. Uruchamianie funkcji nagrywania przynosi korzyści, jeśli na koniec może być przydatne do tworzenia notatek i elementów działań. Ale jako użytkownik musisz to włączyć i zdecydować, gdzie chcesz to mieć ".

ELI5: Google rozważa dodanie funkcji 'pamięci' podobnej do Recall (funkcji Microsoftu) dla Chromebooków. Ma to ułatwić szybkie wyszukiwanie na komputerze, podobne do wyszukiwania w internecie. Jednakże istnieją obawy dotyczące prywatności i bezpieczeństwa związane z tą funkcją. Google analizuje możliwości wdrożenia podobnego rozwiązania, które pozwoliłoby użytkownikowi decydować o włączeniu i kontrolowaniu tego narzędzia.

Źródła:

NewsBreak, najczęściej pobierana aplikacja informacyjna w USA, przyłapana na udostępnianiu całkowicie fałszywych historii

W ostatnią Wigilię NewsBreak, darmowa aplikacja z korzeniami w Chinach, która jest najczęściej pobieraną aplikacją informacyjną w Stanach Zjednoczonych, opublikowała alarmujący artykuł o strzelaninie w małym miasteczku. Został on zatytułowany "Christmas Day Tragedy Strikes Bridgeton, New Jersey Amid Rising Gun Violence in Small Towns". Problem polegał na tym, że taka strzelanina nie miała miejsca. Departament policji w Bridgeton w stanie New Jersey opublikował 27 grudnia oświadczenie na Facebooku, w którym odrzucił artykuł - wyprodukowany przy użyciu technologii AI - jako "całkowicie fałszywy". "Nic podobnego do tej historii nie wydarzyło się w Boże Narodzenie lub w okolicach Bożego Narodzenia, ani nawet w niedawnej pamięci w opisywanym obszarze" - napisano w poście. "Wygląda na to, że sztuczna inteligencja tego" serwisu informacyjnego "pisze fikcję, której nie ma problemu z publikowaniem czytelnikom". NewsBreak, z siedzibą w Mountain View w Kalifornii i biurami w Pekinie i Szanghaju, powiedział Reutersowi, że usunął artykuł 28 grudnia, cztery dni po publikacji.

Firma stwierdziła, że "niedokładne informacje pochodzą ze źródła treści" i podała link do strony internetowej, dodając: "Kiedy NewsBreak zidentyfikuje jakiekolwiek niedokładne treści lub jakiekolwiek naruszenie naszych standardów społeczności, podejmujemy natychmiastowe działania w celu usunięcia tych treści". Ponieważ lokalne serwisy informacyjne w całej Ameryce zostały zamknięte w ostatnich latach, NewsBreak wypełnił pustkę. Serwis Newsbreak, określający się jako "źródło informacji o wszystkim, co lokalne", ma ponad 50 milionów użytkowników miesięcznie. Publikuje licencjonowane treści z głównych mediów, w tym Reuters, Fox, AP i CNN, a także niektóre informacje uzyskane przez skrobanie Internetu w poszukiwaniu lokalnych wiadomości lub komunikatów prasowych, które przepisuje za pomocą sztucznej inteligencji. Aplikacja jest dostępna tylko w Stanach Zjednoczonych, ale w co najmniej 40 przypadkach od 2021 r. korzystanie z narzędzi sztucznej inteligencji wpłynęło na społeczności, którym stara się służyć, a Newsbreak publikuje błędne historie; tworzy 10 historii z lokalnych serwisów informacyjnych pod fikcyjnymi tytułami; i podnosząc treści od swoich konkurentów, zgodnie z przeglądem Reutersa wcześniej niezgłoszonych dokumentów sądowych związanych z naruszeniem praw autorskich, e-maili o zaprzestaniu działalności i notatką firmową z 2022 r., w której zarejestrowano obawy dotyczące "historii generowanych przez sztuczną inteligencję".

"Pięciu z siedmiu byłych pracowników NewsBreak, z którymi rozmawiał Reuters, stwierdziło, że większość prac inżynieryjnych stojących za algorytmem aplikacji odbywa się w jej chińskich biurach. "Firma rozpoczęła działalność w Stanach Zjednoczonych w 2015 roku jako spółka zależna Yidian, chińskiej aplikacji do agregacji wiadomości", zauważa Reuters. "Obie firmy zostały założone przez Jeffa Zhenga, dyrektora generalnego Newsbreak, a firmy mają wspólny amerykański patent zarejestrowany w 2015 r. na algorytm "Interest Engine", który rekomenduje treści informacyjne w oparciu o zainteresowania i lokalizację użytkownika".

"NewsBreak to prywatny start-up, którego głównymi sponsorami są firmy private equity z siedzibą w San Francisco Francisco Partners i IDG Capital z siedzibą w Pekinie".

ELI5: Firma nazywana NewsBreak opublikowała fałszywy artykuł o strzelaninie w niewielkim miasteczku w USA. Okazało się, że informacje te zostały wygenerowane przez sztuczną inteligencję i nie miały pokrycia w rzeczywistości. Firma usunęła artykuł i zadeklarowała, że podejmie działania, aby unikać podobnych błędów w przyszłości. NewsBreak pozyskuje informacje od różnych źródeł, w tym za pomocą sztucznej inteligencji, i ma ponad 50 milionów użytkowników miesięcznie w Stanach Zjednoczonych. Niektórzy byli pracownicy firmy potwierdzili, że większość prac technicznych związanych z aplikacją odbywa się w biurach w Chinach.

Źródła:

Kalifornijska ustawa o sztucznej inteligencji wywołuje sprzeciw gigantów z Doliny Krzemowej

Proponowane przez Kalifornię przepisy regulujące sztuczną inteligencję wywołały reakcję ze strony przedstawicieli Doliny Krzemowej, którzy twierdzą, że ustawa zdusi innowacje i zmusi start-upy AI do opuszczenia stanu. Ustawa Safe and Secure Innovation for Frontier Artificial Intelligence Systems Act, przyjęta przez stanowy Senat w zeszłym miesiącu, wymaga od twórców sztucznej inteligencji przestrzegania ścisłych ram bezpieczeństwa, w tym stworzenia "wyłącznika awaryjnego" dla ich modeli. Krytycy twierdzą, że ustawa nakłada kosztowne obciążenia związane z przestrzeganiem przepisów na mniejsze firmy zajmujące się sztuczną inteligencją i koncentruje się na hipotetycznych zagrożeniach. Rozważane są poprawki mające na celu wyjaśnienie zakresu ustawy i rozwianie obaw dotyczących jej wpływu na modele AI typu open source.

ELI5: Kalifornijska ustawa dotycząca sztucznej inteligencji spotkała się z krytyką ze strony przedsiębiorców z Doliny Krzemowej. Ustawa ta wymaga od twórców AI przestrzegania ścisłych zasad bezpieczeństwa. Sugerowane są zmiany mające na celu wyjaśnienie treści ustawy i zmniejszenie obciążeń dla firm zajmujących się sztuczną inteligencją.

Źródła:

Szczoteczka do zębów Oral-B kontra Alexa

Ars Technica: Jak widzimy obecnie w przypadku sztucznej inteligencji, gdy nowa technologia staje się modna, firmy zrobią prawie wszystko, aby wcisnąć tę technologię do swoich produktów. Trendy jednak zanikają, a priorytety korporacyjne ulegają zmianie - co skutkuje zablokowanymi gadżetami i wyrzutami sumienia kupujących. Tak właśnie dzieje się z niektórymi, którzy kupili szczoteczki do zębów Oral-B z wbudowaną Amazon Alexa. Oral-B wypuścił Guide za 230 USD w sierpniu 2020 roku, ale w lutym tego roku zablokował możliwość konfigurowania lub rekonfigurowania Alexy w produkcie. W chwili pisania tego tekstu Guide jest nadal dostępny za pośrednictwem zewnętrznego sprzedawcy Amazon.

Baza ładująca szczoteczki Guide była w stanie połączyć się z Internetem i działać jak głośnik Alexa, do którego można było mówić i z którego Alexa mogła odpowiadać. Właściciele mogli "poprosić o odtwarzanie muzyki, usłyszeć wiadomości, sprawdzić pogodę, sterować inteligentnymi urządzeniami domowymi, a nawet zamówić więcej główek szczoteczki, mówiąc:" Alexa, zamów zamienniki główek szczoteczki Oral-B ", zgodnie z ogłoszeniem Procter & Gamble z 2020 roku. Oral-B chwalił się również w tamtym czasie, że współpracując z Alexą, Guide zapoczątkował "prawdziwie połączoną łazienkę".

15 lutego Oral-B zablokował możliwość skonfigurowania Alexy przez Guide, zaprzestając korzystania z aplikacji Oral-B Connect wymaganej do ukończenia procesu. Właściciele Guide mogą nadal korzystać z aplikacji Oral-B do innych funkcji; jednak możliwość korzystania z bazy ładującej jak z inteligentnego głośnika Alexa - duża atrakcja w ogłoszeniu i reklamie produktu - jest poważnie ograniczona. Urządzenie powinno nadal współpracować z Alexą, jeśli użytkownicy skonfigurowali je przed zamknięciem Connect przez Oral-B, ale skonfigurowanie nowego połączenia Wi-Fi lub przywrócenie utraconego nie działa bez Connect. Właściciel Oral-B, Proctor & Gamble, powiedział w oświadczeniu: "Aplikacja Oral-B Connect została pierwotnie opracowana w celu obsługi szczoteczek elektrycznych Oral-B Guide i Oral-B Sense, które zostały wycofane z produkcji. Chociaż niektóre funkcje nie są już obsługiwane przez te szczoteczki, aplikacja Oral-B pozostaje kompatybilna z obydwoma urządzeniami. Konsumenci proszeni są o kontakt z działem obsługi klienta Oral-B, gdzie mogą uzyskać dodatkowe wsparcie dla tych szczoteczek".

Tymczasem rzecznik Amazon powiedział Ars: "Oral-B Guide nadal ma wbudowaną Alexę, a klienci mogą nadal korzystać z doświadczenia Alexa na urządzeniach, które zostały skonfigurowane za pośrednictwem aplikacji Oral-B Connect. Oral-B Guide jest obecnie sprzedawany przez niezależnego sprzedawcę na Amazon.com. W przypadku dalszych pytań dotyczących aplikacji prosimy o kontakt z Oral-B".

ELI5: Firma Oral-B zablokowała możliwość korzystania z Alexy przez szczoteczkę Guide, co sprawiło, że właściciele nie mogli już m.in. zamawiać produktów czy słuchać muzyki. Oral-B tłumaczy, że aplikacja Connect, którą potrzebowała szczoteczka, została opracowana dla starszych modeli, które nie są już produkowane. Firma zapewnia, że szczoteczki w dalszym ciągu będą działać, ale chętnych do uzyskania wsparcia zaprasza do kontaktu z obsługą klienta. Amazon z kolei odsyła zainteresowanych do samej firmy Oral-B w kwestii dalszych informacji.

Źródła:

Adobe reaguje na głośny sprzeciw wobec nowych warunków korzystania z usługi

Adobe spotyka się z reakcją na nowy język Warunków świadczenia usług, w związku z przyjęciem generatywnej sztucznej inteligencji w produktach takich jak Photoshop i oprogramowanie do obsługi klienta. Warunki korzystania z usługi, wysłane do użytkowników pakietu Creative Cloud Suite, nie wspominają wyraźnie o sztucznej inteligencji, ale zawierają odniesienie do uczenia maszynowego i klauzulę zabraniającą szkolenia modeli sztucznej inteligencji w oprogramowaniu Adobe. Z raportu: W szczególności użytkownicy sprzeciwili się twierdzeniom Adobe, że "może uzyskiwać dostęp, przeglądać lub słuchać Treści użytkownika zarówno za pomocą metod automatycznych, jak i ręcznych - przy użyciu technik takich jak uczenie maszynowe w celu ulepszenia naszych Usług i Oprogramowania oraz doświadczenia użytkownika", co wielu uznało za milczące przyznanie się zarówno do ich inwigilacji, jak i szkolenia sztucznej inteligencji na ich treściach, nawet poufnych treściach dla klientów chronionych umowami o zachowaniu poufności lub klauzulami poufności / umowami między wspomnianymi użytkownikami Adobe a klientami.

Rzecznik Adobe przedstawił następujące oświadczenie w odpowiedzi na pytania VentureBeat dotyczące nowego ToS i reakcję głosową: "Ta polityka obowiązuje od wielu lat. W ramach naszego zobowiązania do zachowania przejrzystości wobec naszych klientów, na początku tego roku dodaliśmy do naszych Warunków użytkowania wyjaśniające przykłady dotyczące tego, kiedy Adobe może uzyskać dostęp do treści użytkownika. Adobe uzyskuje dostęp do treści użytkowników z wielu powodów, w tym w celu dostarczania niektórych z naszych najbardziej innowacyjnych funkcji opartych na chmurze, takich jak filtry w programie Photoshop i usuwanie tła w aplikacji Adobe Express, a także w celu podejmowania działań przeciwko niedozwolonym treściom. Adobe nie uzyskuje dostępu, nie przegląda ani nie odsłuchuje treści przechowywanych lokalnie na urządzeniach użytkowników ".

ELI5: Adobe wprowadziło nowe zasady dotyczące korzystania z ich usług, które niektórzy użytkownicy skrytykowali. Chodzi o to, że Adobe używa sztucznej inteligencji do udoskonalania swoich programów, ale nie informuje o tym jasno w warunkach użytkowania. Adobe tłumaczy, że ma to na celu poprawę funkcji w programach takich jak Photoshop, ale nie zezwala na szkolenie swojej sztucznej inteligencji na prywatnych treściach użytkowników.

Źródła:

Yellen ostrzega przed znaczącym ryzykiem związanym z wykorzystaniem sztucznej inteligencji w finansach

Sekretarz Skarbu USA Janet Yellen ostrzega, że wykorzystanie sztucznej inteligencji w finansach może obniżyć koszty transakcji, ale niesie ze sobą "znaczące ryzyko", zgodnie z fragmentami przemówienia, które ma zostać wygłoszone w czwartek. Z raportu: W uwagach do konferencji Financial Stability Oversight Council i Brookings Institution AI, Yellen mówi, że ryzyko związane z AI przesunęło się na szczyt agendy rady regulacyjnej.

"Szczególne słabości mogą wynikać ze złożoności i nieprzejrzystości modeli sztucznej inteligencji, nieodpowiednich ram zarządzania ryzykiem w celu uwzględnienia ryzyka związanego ze sztuczną inteligencją oraz wzajemnych powiązań, które pojawiają się, gdy wielu uczestników rynku polega na tych samych danych i modelach" - mówi Yellen we fragmentach. Zauważa również, że koncentracja wśród dostawców, którzy opracowują modele sztucznej inteligencji i którzy dostarczają dane i usługi w chmurze, może również wprowadzać ryzyko, które może zwiększyć istniejące ryzyko związane z usługodawcami zewnętrznymi. "A niewystarczające lub błędne dane mogą również utrwalać lub wprowadzać nowe uprzedzenia w podejmowaniu decyzji finansowych" - twierdzi Yellen*.

ELI5: Janet Yellen mówi, że używanie sztucznej inteligencji w finansach może obniżyć koszty transakcji, ale niesie ze sobą duże ryzyko. Mogą być problemy z trudnymi do zrozumienia modelami AI, brakiem odpowiednich zasad zarządzania ryzykiem i zależnościami między firmami korzystającymi z tych samych danych. Błędne dane mogą wprowadzić błędy w podejmowaniu decyzji finansowych.

Źródła: