Apple prezentuje Apple Intelligence

Zgodnie z plotkami, Apple zaprezentowało Apple Intelligence, długo oczekiwany krok w kierunku generatywnej sztucznej inteligencji (AI), obiecując wysoce spersonalizowane doświadczenia zbudowane z myślą o bezpieczeństwie i prywatności. Funkcja, określana jako "A.I.", zostanie zintegrowana z różnymi systemami operacyjnymi Apple, w tym iOS, macOS i najnowszym, VisionOS. Dyrektor generalny Tim Cook powiedział, że Apple Intelligence wykracza poza sztuczną inteligencję, nazywając ją "osobistą inteligencją" i "kolejnym dużym krokiem dla Apple".

Apple Intelligence opiera się na dużych modelach językowych i inteligencji, a większość przetwarzania odbywa się lokalnie na najnowszym krzemie Apple. Prywatna chmura obliczeniowa jest dodawana w celu obsługi bardziej intensywnych zadań przy jednoczesnym zachowaniu prywatności użytkownika. Aktualizacja obejmuje również znaczące zmiany w Siri, wirtualnym asystencie Apple, który będzie teraz obsługiwał wpisywane zapytania i głębszą integrację z różnymi aplikacjami, w tym aplikacjami innych firm. Integracja ta umożliwi użytkownikom wykonywanie złożonych zadań bez przełączania się między wieloma aplikacjami.

Apple Intelligence będzie wdrażane w najnowszych wersjach systemów operacyjnych Apple, w tym iOS i iPadOS 18, macOS Sequoia i visionOS 2.

ELI5: Apple zaprezentowało nową funkcję o nazwie Apple Intelligence, która wprowadza zaawansowaną sztuczną inteligencję do systemów operacyjnych takich jak iOS, macOS i VisionOS. Nowa funkcja ma dostarczać użytkownikom spersonalizowane i bezpieczne doświadczenia. Apple skupia się na zapewnieniu prywatności użytkowników. Zmiany obejmują ulepszenia w Siri, wirtualnym asystencie Apple, który teraz będzie mógł obsługiwać tekstowe zapytania i lepiej współpracować z różnymi aplikacjami, nawet z innych firm. Źródła:

Stable Diffusion 3 zmienia ludzkie ciała dzięki filtrom nagości

Z Ars Technica: W środę, Stability AI wydało wagi dla Stable Diffusion 3 Medium, modelu syntezy obrazu AI, który zamienia podpowiedzi tekstowe w obrazy generowane przez AI. Jego pojawienie się zostało jednak wyśmiane w Internecie, ponieważ generuje obrazy ludzi w sposób, który wydaje się być krokiem wstecz w stosunku do innych najnowocześniejszych modeli syntezy obrazu, takich jak Midjourney lub DALL-E 3. W rezultacie może z łatwością produkować dzikie, anatomicznie niepoprawne wizualne obrzydliwości. Wątek na Reddicie zatytułowany "Czy to wydanie ma być żartem? SD3-2B" szczegółowo opisuje spektakularne porażki SD3 Medium w renderowaniu ludzi, zwłaszcza ludzkich kończyn, takich jak dłonie i stopy. Inny wątek zatytułowany "Dlaczego SD3 jest tak złe w generowaniu dziewczyn leżących na trawie?" pokazuje podobne problemy, ale dla całych ludzkich ciał.

Fani obrazów AI jak dotąd obwiniają anatomię Stable Diffusion 3 za niepowodzenia związane z naleganiem Stability na odfiltrowanie treści dla dorosłych (często nazywanych treściami "NSFW") z danych treningowych SD3, które uczą model generowania obrazów. "Wierzcie lub nie, ale silne cenzurowanie modelu pozbywa się również ludzkiej anatomii, więc... tak właśnie się stało" - napisał w wątku jeden z użytkowników Reddita. Wydanie Stable Diffusion 2.0 w 2023 roku miało podobne problemy z dokładnym przedstawieniem ludzi, a badacze sztucznej inteligencji wkrótce odkryli, że cenzurowanie treści dla dorosłych zawierających nagość również poważnie ogranicza zdolność modelu sztucznej inteligencji do generowania dokładnej ludzkiej anatomii. W tym czasie Stability AI zmieniło kurs z SD 2.1 i SD XL, odzyskując niektóre zdolności utracone przez wykluczenie treści NSFW. "Działa dobrze, o ile na zdjęciu nie ma ludzi, myślę, że ich ulepszony filtr nsfw do filtrowania danych treningowych zdecydował, że wszystko, co humanoidalne, jest nsfw" - napisał inny Redditor.

Zasadniczo, za każdym razem, gdy monit skupia się na koncepcji, która nie jest dobrze reprezentowana w zbiorze danych szkoleniowych, model obrazu konfabuluje swoją najlepszą interpretację tego, o co prosi użytkownik. Czasami może to być całkowicie przerażające. Korzystając z bezpłatnej wersji demonstracyjnej SD3 online na Hugging Face, uruchomiliśmy podpowiedzi i zobaczyliśmy podobne wyniki do tych zgłaszanych przez innych. Na przykład, zapytanie "mężczyzna pokazujący swoje ręce" zwróciło obraz mężczyzny trzymającego dwie gigantyczne dłonie odwrócone do tyłu, chociaż każda dłoń miała co najmniej pięć palców*.

ELI5: Firma Stablity AI stworzyła nowy model AI, który może zamieniać tekstowe opisy na obrazy. Niestety, model ten ma problemy z generowaniem obrazów ludzi, co wywołało krytykę w Internecie. Ograniczenia wynikają z tego, że model został źle nauczony poprzez cenzurowanie treści dla dorosłych w danych treningowych. Użytkownicy zgłaszają, że model może generować dziwne i anatomicznie niepoprawne wizualizacje ludzi. Na przykład, zamiast obrazu mężczyzny pokazującego ręce, model stworzył obraz mężczyzny trzymającego gigantyczne dłonie odwrócone do tyłu.

Źródła:

Turecki student aresztowany za używanie sztucznej inteligencji do oszukiwania na egzaminie uniwersyteckim

Tureckie władze aresztowały studenta za oszukiwanie podczas egzaminu wstępnego na uniwersytet poprzez używanie prowizorycznego urządzenia połączonego z oprogramowaniem AI do odpowiadania na pytania.

Z raportu: Student został zauważony podczas egzaminu w weekend, zachowując się w podejrzany sposób i został zatrzymany przez policję, zanim został formalnie aresztowany i wysłany do więzienia w oczekiwaniu na proces. Inna osoba, która pomagała studentowi, również została zatrzymana.

ELI5: Tureckie władze złapały studenta za oszukiwanie na egzaminie używając AI i aresztowały go.

Źródła:

Craig Federighi mówi, że Apple ma nadzieję dodać Google Gemini, inne modele sztucznej inteligencji do iOS 18

Apple wywołało falę w mediach, gdy ujawniło partnerstwo z OpenAI podczas corocznego keynote WWDC. Ogłoszenie to koncentrowało się na decyzji Apple o wprowadzeniu ChatGPT natywnie do iOS 18, w tym Siri i innych własnych aplikacji. Podczas poniedziałkowego wywiadu, dyrektorzy Apple Craig Federighi i John Giannandrea zasugerowali możliwą umowę z Google Gemini i innymi chatbotami AI w przyszłości. 9to5Mac donosi: Moderowany przez iJustine wywiad odbył się dziś po południu w Steve Jobs Theater i obejmował dyskusję z Johnem Giannandrea, starszym wiceprezesem Apple ds. uczenia maszynowego i strategii AI, oraz Craigiem Federighi, starszym wiceprezesem ds. inżynierii oprogramowania. Podczas wywiadu Federighi odniósł się w szczególności do nadziei Apple, aby ostatecznie umożliwić użytkownikom wybór między różnymi modelami do wykorzystania z Apple Intelligence.

Podczas gdy ChatGPT z OpenAI jest obecnie jedyną opcją, Federighi zasugerował, że Google Gemini może pojawić się jako opcja w przyszłości: "Uważamy, że ostatecznie ludzie będą preferować pewne modele, których chcą używać, być może taki, który jest świetny do kreatywnego pisania lub taki, który wolą do kodowania. Chcemy więc umożliwić użytkownikom korzystanie z wybranego przez nich modelu. W przyszłości możemy więc spodziewać się integracji z różnymi modelami, takimi jak Google Gemini. To znaczy, nie ma nic do ogłoszenia w tej chwili, ale to jest nasz kierunek". Decyzja o skupieniu się na ChatGPT na początku była spowodowana tym, że Apple chciało "zacząć od najlepszych", według Federighiego.

ELI5: Apple ogłosiło, że będzie współpracować z OpenAI, aby wprowadzić ChatGPT do swoich aplikacji, takich jak Siri. W przyszłości planują dać użytkownikom możliwość wyboru różnych modeli sztucznej inteligencji, w tym być może Google Gemini. Apple zdecydowało się zacząć od ChatGPT, aby zapewnić najlepszą jakość na początku.

Źródła:

Nvidia osiąga kapitalizację rynkową w wysokości 3 bilionów dolarów dzięki boomowi na sztuczną inteligencję

Nvidia osiągnęła kapitalizację rynkową w wysokości 3 bilionów dolarów, wyprzedzając Apple i stając się drugą co do wielkości spółką publiczną za Microsoftem. CNBC donosi: Kamień milowy Nvidii jest ostatnim oszałamiającym osiągnięciem w serii, w której akcje wzrosły o ponad 3224% w ciągu ostatnich pięciu lat. Firma podzieli swoje akcje 100 do 1 jeszcze w tym miesiącu. Apple był pierwszą amerykańską firmą, która osiągnęła kapitalizację rynkową w wysokości 3 bilionów dolarów w styczniu 2022 roku. Microsoft osiągnął wartość rynkową 3 bilionów dolarów w styczniu 2024 roku. Nvidia, która została założona w 1993 roku, przekroczyła wycenę 2 bilionów dolarów w lutym, a od tego momentu zajęło jej tylko około trzech miesięcy, aby przekroczyć 3 biliony dolarów.

Wzrost wartości Nvidii w ostatnich latach był napędzany zapotrzebowaniem branży technologicznej na jej chipy, które są wykorzystywane do opracowywania i wdrażania dużych modeli sztucznej inteligencji, takich jak ten, który jest sercem ChatGPT OpenAI. Firmy takie jak Google, Microsoft, Meta, Amazon i OpenAI kupują procesory graficzne Nvidii warte miliardy dolarów.

ELI5: Nvidia jest teraz bardzo dużą firmą, wartą 3 biliony dolarów. Jej wartość na giełdzie bardzo szybko rosła w ciągu ostatnich pięciu lat. Firma zajęła drugie miejsce pod względem wartości na giełdzie, wyprzedzając Apple. Nvidia produkuje chipy wykorzystywane m.in. do sztucznej inteligencji, co przyczyniło się do jej szybkiego wzrostu. Firmy takie jak Google czy Amazon kupują od Nvidii ich produkty na ogromną skalę.

Źródła:

Jak amerykański szpital wykorzystuje sztuczną inteligencję do analizy zdjęć rentgenowskich - z pomocą Red Hat

W tym tygodniu Red Hat ogłosił, że jeden z wiodących amerykańskich szpitali pediatrycznych wykorzystuje sztuczną inteligencję do analizy zdjęć rentgenowskich, "aby poprawić jakość obrazu oraz szybkość i dokładność jego interpretacji".

CTO firmy Red Hat powiedział, że posunięcie to jest przykładem "pozytywnego wpływu, jaki sztuczna inteligencja może mieć na opiekę zdrowotną". Zanim Bostoński Szpital Dziecięcy rozpoczął pilotaż AI w radiologii, pomiary ilościowe musiały być wykonywane ręcznie, co było czasochłonnym zadaniem. Inne, bardziej złożone analizy obrazu były wykonywane całkowicie offline i poza klinicznym przepływem pracy. W dziedzinie, w której czas ma kluczowe znaczenie, szpital pilotuje Red Hat OpenShift za pośrednictwem ChRIS Research Integration Service, internetowej platformy obrazów medycznych. Aplikacja AI działająca w ChRIS na fundamencie Red Hat OpenShift może automatycznie badać zdjęcia rentgenowskie, identyfikować najbardziej wartościowe obrazy diagnostyczne spośród tysięcy wykonanych zdjęć i oznaczać wszelkie rozbieżności. Skraca to czas interpretacji dla radiologów.

Ale wydaje się, że jest to również duża wygrana dla otwartości: Innowacje opracowane wewnętrznie można natychmiast przenieść do publicznych chmur badawczych, takich jak Massachusetts Open Cloud, gdzie można udostępniać dane na dużą skalę i wspierać dodatkowe innowacje. Bostoński Szpital Dziecięcy dąży do rozszerzenia zasięgu zaawansowanych rozwiązań opieki zdrowotnej na całym świecie poprzez takie podejście, zwiększając ich wpływ na dobrostan pacjentów na całym świecie.

"Red Hat wierzy, że otwartość uwalnia potencjał świata" - czytamy w komunikacie - "w tym potencjał dzielenia się wiedzą i wzajemnego korzystania z odkryć. Ponadto Red Hat wierzy, że innowacje - w tym sztuczna inteligencja - powinny być dostępne wszędzie, dzięki czemu każda aplikacja w dowolnym miejscu stanie się rzeczywistością.

"Dzięki otwartemu oprogramowaniu innowacje oparte na sztucznej inteligencji w hybrydowych środowiskach IT, które mogą prowadzić do szybszych przełomów klinicznych i lepszych wyników pacjentów, stają się rzeczywistością".

ELI5: Firma Red Hat wspiera szpital w ulepszeniu analizy zdjęć rentgenowskich za pomocą sztucznej inteligencji. Dzięki temu można szybciej i lepiej interpretować obrazy, co pomaga radiologom. Wykorzystanie otwartego oprogramowania pozwala na przenoszenie nowych rozwiązań do chmur badawczych i dzielenie się nimi globalnie, co zwiększa wpływ na opiekę zdrowotną na całym świecie. Otwartość i innowacje mają pomóc w poprawie wyników pacjentów i przyspieszeniu postępu w medycynie.

Źródła:

ChatGPT, Claude i Perplexity upadły w tym samym czasie

Za pośrednictwem TechCrunch: Po wielogodzinnej awarii, która miała miejsce we wczesnych godzinach porannych, chatbot ChatGPT firmy OpenAI ponownie przestał działać - ale tym razem nie był to jedyny dostawca sztucznej inteligencji, którego to dotyczyło. We wtorek rano zarówno Claude, jak i Perplexity firmy Anthropic również zaczęły widzieć problemy, ale zostały one szybciej rozwiązane. Gemini Google wydaje się obecnie działać, choć według niektórych raportów użytkowników mógł również na krótko przejść w tryb offline.

Nietypowe jest to, że trzech głównych dostawców sztucznej inteligencji nie działa w tym samym czasie, co może sygnalizować szerszy problem z infrastrukturą lub problem na skalę internetową, taki jak na przykład te, które wpływają na wiele serwisów społecznościowych jednocześnie. Możliwe jest również, że problemy Claude i Perplexity nie były spowodowane błędami lub innymi problemami, ale otrzymaniem zbyt dużego ruchu w krótkim czasie z powodu awarii ChatGPT.

ELI5: Trzy główne modele AI przestały działać jednocześnie. To może oznaczać duży problem z internetem albo infrastrukturą komputerową wykorzystywaną przez te usługi.

Źródła: