Project Astra to odpowiedź Google'a na nowe ChatGPT

Podczas konferencji Google I/O Google zaprezentował „asystenta sztucznej inteligencji nowej generacji” o nazwie Project Astra, który potrafi „zrozumieć, co widzi kamera Twojego telefonu” - informuje Wired. Projekt Astra został ogłoszony po wcześniejszej premierze modelu GPT-4o od OpenAI. GPT-4o to SI która potrafi szybko odpowiadać na polecenia głosowe i rozmawiać o tym, co „widzi” za pośrednictwem aparatu smartfona lub na ekranie komputera.

Według informacji z serwisu Wired, Project Astra „korzysta również z bardziej ludzkiego głosu i emocjonalnie wyrazistego tonu, symulując emocje, takie jak zdziwienie czy nawet flirt”. Z raportu: „W odpowiedzi na komendy głosowe, Astra potrafiła zrozumieć obiekty i sceny widziane przez kamery urządzeń oraz rozmawiać na ich temat w naturalnym języku. Zidentyfikowała głośnik komputerowy i odpowiedziała na pytania dotyczące jego podzespołów, rozpoznała dzielnicę Londynu po widoku z okna biurowego, odczytała i przeanalizowała kod z ekranu komputera, napisała limeryk o ołówkach i przypomniała, gdzie ktoś zostawił okulary.

Google informuje, że Project Astra będzie dostępny za pośrednictwem nowego interfejsu o nazwie Gemini Live jeszcze w tym roku. Demis Hassabis, lider firmy odpowiedzialny za ponowne umocnienie pozycji w dziedzinie sztucznej inteligencji, powiedział, że firma nadal testuje kilka prototypowych inteligentnych okularów i nie podjęła jeszcze decyzji, czy wypuścić którekolwiek z nich na rynek. Hassabis uważa, że wzbogacenie modeli sztucznej inteligencji głębszym zrozumieniem świata fizycznego będzie kluczowe dla dalszego postępu w tej dziedzinie i zwiększenia odporności systemów, takich jak Project Astra.

Inne obszary sztucznej inteligencji, w tym praca Google DeepMind nad programami sztucznej inteligencji do gier, mogą pomóc, twierdzi. Hassabis i inni mają nadzieję, że tego typu prace mogą być rewolucyjne dla robotyki, dziedziny, w której Google również inwestuje. „Uniwersalny agent asystent wielomodalny zmierza w kierunku sztucznej inteligencji ogólnej” – powiedział Hassabis odnosząc się do przyszłego punktu, gdzie maszyny będą w stanie robić wszystko, co ludzki umysł. „To nie jest AGI ani nic takiego, ale to początek czegoś”.

ELI5: Google pokazał na konferencji nowego asystenta sztucznej inteligencji o nazwie Project Astra. Ten asystent potrafi rozumieć to, co widzi kamera Twojego telefonu i reagować na to, co słyszy za pomocą mikrofonu. Project Astra potrafi nawet "czuć" emocje i używać bardziej ludzkiego tonu w komunikacji.

Źródła:

Główny Naukowiec i Współzałożyciel OpenAI Odchodzi z Firmy

Współzałożyciel i Główny Naukowiec OpenAI, Ilya Sutskever, odchodzi z firmy, aby pracować nad "czymś osobiście ważnym", napisał dyrektor generalny Sam Altman w poście na X.

"To dla mnie bardzo smutne; Ilya jest zdecydowanie jednym z największych umysłów naszego pokolenia, przewodnim światłem naszej dziedziny i bliskim przyjacielem. Jestem dozgonnie wdzięczny za to, co tutaj zrobił i czuję się zobowiązany do ukończenia misji, którą razem rozpoczęliśmy."

Zastąpi go badacz OpenAI, Jakub Pachocki.

Jakub będzie naszym nowym Głównym Naukowcem. Jakub jest również jednym z największych umysłów naszego pokolenia; jestem podekscytowany, że podejmuje tu pałeczkę. Kierował wieloma naszymi najważniejszymi projektami, i jestem pewien, że doprowadzi nas do szybkiego i bezpiecznego postępu w realizacji naszej misji zapewnienia, aby AGI przyniosła korzyści wszystkim.

New York Times zauważa, że Ilya dołączył do trzech innych członków zarządu, aby zmusić Altmana do odejścia w chaotyczny weekend w listopadzie zeszłego roku. Ostatecznie Altman powrócił na stanowisko dyrektora generalnego pięć dni później. Ilya powiedział, że żałuje tej decyzji.

ELI5: Ilya Sutskever, który był ważną osobą w firmie OpenAI, zdecydował się odejść, aby pracować nad swoim projektem. Jego przyjaciel, Sam Altman, jest smutny z powodu tej decyzji, ale jest wdzięczny za współpracę z Ilyą. Zastąpi go inny badacz, Jakub Pachocki. Altman jest pewny, że Jakub świetnie poradzi sobie w nowej roli.

Źródła:

Microsoft wykorzystuje sztuczną inteligencję do koordynacji pracy w biurze

Microsoft próbuje rozwiązać problem koordynacji z kolegami w kwestii obecności w biurze. Jest to problem, który pojawił się wraz z zwiększeniem się pracy hybrydowej i elastycznej po niedawnej pandemii covid-19, gdy pracownicy spędzają mniej czasu w biurze. Microsoft Places to aplikacja zasilana sztuczną inteligencją, która weszła w fazę Preview i powinna pomóc firmom polegającym na Outlooku i Microsoft Teams w lepszej koordynacji czasu przebywania w biurze razem. "Kiedy pracownicy przychodzą do biura, nie chcą być witani przez morze pustych biurek - chcą spędzać czas ze swoim kierownikiem i współpracownikami, z którymi najczęściej współpracują," mówi w blogu Jared Spataro, wiceprezes korporacyjny Microsoftu ds. AI w pracy. "Dzięki Places możesz łatwiej koordynować między współpracownikami i przestrzeniami w biurze."

ELI5: Microsoft stworzył nową aplikację o nazwie Microsoft Places, która ma pomóc ludziom w firmach lepiej organizować czas spędzany w biurze. Dzięki tej aplikacji będą mogli łatwiej współpracować z kolegami, kiedy będą przebywali w biurze. Ta aplikacja ma być pomocna szczególnie teraz, gdy pracujemy częściej zdalnie, a mniej czasu spędzamy w biurze.

Źródła:

Meta zamknie Workplace, swoje narzędzie do rozmów biznesowych

Meta zamyka Workplace, narzędzie sprzedawane firmom, które łączyło funkcje społecznościowe i produktywne, zgodnie z wiadomościami dla klientów uzyskanymi przez Axios i potwierdzonymi przez Metę.

Z raportu: Meta od kilku lat zwalnia pracowników i redukuje swoją gamę produktów, inwestując najpierw miliardy dolarów w metawers, a teraz w sztuczną inteligencję. Micah Collins, starszy dyrektor zarządzania produktem w Meta, wysłał wiadomość do klientów informując ich o zamknięciu. Collins powiedział, że klienci będą mogli korzystać z Workplace do września 2025 r., kiedy będzie dostępny tylko do pobrania lub odczytania istniejących danych. Usługa zostanie całkowicie zamknięta w 2026 r. Workplace był dawniej znany jako Facebook at Work i został uruchomiony w swojej obecnej formie w 2016 r. W 2021 r. firma zgłosiła, że ma 7 milionów płatnych subskrybentów.

ELI5: Firma Meta zamknie swoje narzędzie o nazwie Workplace, które pomaga firmom w komunikacji i pracy. Decyzja ta wynika z faktu, że Meta skupia się teraz na inwestycjach w nowe technologie. Workplace, znany wcześniej jako Facebook at Work, został uruchomiony w 2016 roku i miał 7 milionów płatnych użytkowników w 2021 roku.

Źródła:

Sztuczna inteligencja uderza w siły robocze jak 'tsunami', mówi szefowa MFW

Sztuczna inteligencja uderza w globalny rynek pracy "jak tsunami", powiedziała dyrektor generalna Międzynarodowego Funduszu Walutowego, Kristalina Georgieva, w poniedziałek. AI prawdopodobnie wpłynie na 60% miejsc pracy w zaawansowanych gospodarkach oraz 40% miejsc pracy na świecie w ciągu najbliższych dwóch lat, powiedziała Georgieva podczas wydarzenia w Zurychu.

"Mamy bardzo mało czasu, aby przygotować ludzi i biznesy na to," powiedziała podczas wydarzenia zorganizowanego przez Instytut Studiów Międzynarodowych w Szwajcarii, związanego z Uniwersytetem w Zurychu. "To może przynieść ogromny wzrost produktywności, jeśli sobie poradzimy, ale może także prowadzić do większej dezinformacji i oczywiście większych nierówności w naszym społeczeństwie."

ELI5: Gospodyni IMF powiedziała, że sztuczna inteligencja może znacząco wpłynąć na rynek pracy, zmieniając go w ciągu najbliższych dwóch lat. To może przynieść zarówno dobre rzeczy, jak i problemy, jeśli nie przygotujemy się odpowiednio.

Źródła:

Niewidoczny znak wodny AI od Google pomoże identyfikować teksty generatywne i wideo

Wśród wielu nowych modeli i narzędzi AI, jakie dziś ogłosiła firma Google, jest również rozszerzenie technologii znakowania wodnego i detekcji treści AI.

The Verge: CEO DeepMind, Demis Hassabis, po raz pierwszy wystąpił na scenie podczas konferencji dla deweloperów Google I/O we wtorek, aby opowiedzieć nie tylko o nowych narzędziach AI zespołu, takich jak generator wideo Veo, ale także o nowym ulepszonym systemie znakowania wodnego SynthID. Teraz można oznaczać w ten sposób filmy, które zostały wygenerowane cyfrowo, a także teksty wygenerowane przez AI. Google udostępnił również funkcję wstrzykiwania niesłyszalnych znaków wodnych przez SynthID do muzycznych utworów wygenerowanych przez AI za pomocą modelu Lyria zespołu DeepMind. SynthID to tylko jedno z kilku zabezpieczeń AI w opracowaniu, aby zapobiec nadużyciom przez branżę technologiczną. Administracja Bidena poprzez agencje federalne kieruje opracowywaniem wytycznych.

ELI5: Firma Google ogłosiła rozszerzenie technologii znakowania wodnego i detekcji treści AI na nowe nośniki. Teraz można oznaczać filmy i teksty wygenerowane przez sztuczną inteligencję. Dodatkowo, udostępnili funkcję wstrzykiwania niesłyszalnych znaków wodnych do muzyki stworzonej przez AI. Działania te mają na celu zapobieganie nadużyciom w branży technologicznej.

Źródła:

Google stawia na twórców filmowych ze swoim nowym modelem wideo opartym na sztucznej inteligencji generatywnej Veo

Podczas dzisiejszej konferencji dla deweloperów I/O Google ogłosił Veo, swój najnowszy model wideo oparty na sztucznej inteligencji generatywnej, który „może generować filmy o rozdzielczości 1080p, dłuższe niż jedna minuta, w szerokim spektrum wizualnych i filmowych stylów” - donosi The Verge.

Z raportu: Veo posiada „zaawansowane zrozumienie języka naturalnego”, według komunikatu prasowego Google, umożliwiając modelowi zrozumienie terminów filmowych, takich jak „timelapse” czy „powietrzne ujęcia krajobrazu”. Użytkownicy mogą kierować działaniem modelu za pomocą tekstowych, wizualnych lub wideo-podobnych poleceń, a Google twierdzi, że tworzone filmy są „bardziej spójne i koherentne”, przedstawiając bardziej realistyczne ruchy ludzi, zwierząt i obiektów w trakcie ujęć. Dyrektor generalny Google DeepMind, Demis Hassabis, powiedział podczas zapowiedzi prasowej w poniedziałek, że wyniki wideo można doskonalić za pomocą dodatkowych poleceń i że Google eksploruje dodatkowe funkcje, aby umożliwić Veo produkcję storyboardów i dłuższych scen.

Podobnie jak w przypadku wielu takich prezentacji modeli AI, większość osób, które chciałyby wypróbować Veo samodzielnie, najprawdopodobniej będzie musiała poczekać. Google twierdzi, że zaprasza wybranych filmowców i twórców do eksperymentowania z modelem, aby określić, jak najlepiej wspierać kreatywnych i będzie rozwijać te kolaboracje, aby zapewnić, że „twórcy mają wpływ” na to, jak rozwijane są technologie AI Google. Niektóre funkcje Veo będą również dostępne dla „wybranych twórców w nadchodzących tygodniach” w prywatnym podglądzie wideoFX - można zapisać się na listę oczekujących, by mieć wcześniejszą możliwość przetestowania możliwości.

Google planuje również dodać niektóre z możliwości platformy do YouTube Shorts „w przyszłości”. Oprócz nowych modeli i narzędzi AI, Google powiedział, że rozszerza swoją technologię znakowania wodnego i wykrywania treści AI. Nowy ulepszony system znakowania wodnego SynthID firmy „może teraz oznaczać wideo, które zostało wygenerowane cyfrowo, jak i teksty wygenerowane za pomocą AI”, donosi The Verge w osobnym raporcie.

ELI5: Google ogłosił nowy model wideo o nazwie Veo, który może tworzyć filmy o wysokiej jakości, dłuższe niż jedna minuta, w różnych stylach filmowych. Można komunikować się z Veo za pomocą tekstu, obrazów lub filmów, aby stworzyć filmy bardziej spójne i realistyczne. Google zaprasza filmowców do eksperymentowania z modelem i planuje wprowadzić go do YouTube Shorts w przyszłości. Google również rozwija technologię znakowania wodnego i wykrywania treści AI.

Źródła: