Android 15 z funkcjami 'Private Space', wykrywaniem kradzieży i wsparciem dla AV1

Wygląda na to, że Google chce być teraz przede wszystkim firmą skoncentrowaną na AI. Android już miał nieco nowości związanych z AI, ale teraz, gdy spełnione zostały najważniejsze wymagania, mamy rzeczywiste nowości dotyczące systemu operacyjnego. Jedną z ciekawych nowości w tej wersji jest 'Private Space', w której, jak mówi Google, użytkownicy mogą 'przechowywać wrażliwe aplikacje z dala od ciekawskich oczu, pod dodatkową warstwą uwierzytelniania'.

Po pierwsze, jest nowa, domyślnie ukryta część szuflady aplikacji, która może przechowywać te wrażliwe aplikacje, a ujawnienie tej części szuflady wymaga drugiej tury uwierzytelniania na ekranie blokady, które może być inne niż główny ekran blokady telefonu. Podobnie jak aplikacje 'Work', aplikacje w tej sekcji działają na oddzielnym profilu. Dla systemu są one uruchamiane przez oddzielnego 'użytkownika' z oddzielnymi danymi, których nie będą mogły zobaczyć aplikacje nieprywatne. Ciekawym jest, że Google mówi, że 'gdy użytkownik zablokuje private space, profil jest wstrzymywany, tj. aplikacje nie są już aktywne', więc aplikacje w zablokowanym Private Space nie będą mogły pokazywać powiadomień, chyba że przejdziesz przez drugi ekran blokady.

Kolejną nowością w Androidzie 15 jest 'Theft Detection Lock', choć funkcja ta nie pojawi się w dzisiejszej becie i zostanie wydana 'później w tym roku'. Funkcja używa akcelerometrów i 'Google AI' do 'wyczuwania, czy ktoś wyrywa telefon z twojej ręki i próbuje uciec, jechać na rowerze lub odjechać'. Wszelkie tego typu gwałtowne ruchy spowodują automatyczne zablokowanie telefonu.

Android 12L dodał do interfejsu tabletów pasek zadań przypominający desktop, pokazujący niedawne i ulubione aplikacje na dole ekranu, ale był dostępny tylko na ekranie głównym i w ostatnich aplikacjach. Producenci OEM natychmiast zrozumieli, że ten pasek powinien być dostępny cały czas i zmodyfikowali Androida, aby to umożliwić. W Androidzie 15 ciągły dostęp do paska zadań będzie normalną opcją, co umożliwi lepszą wielozadaniowość na tabletach i (prawdopodobnie) otwartych telefonach składanych. Możesz teraz również zapisywać skróty do widoku podzielonego ekranu na pasku zadań.

Funkcja programistyczna Androida 13, przewidywalny powrót, zostanie wreszcie włączona domyślnie. Wykonując gest powrotu, ta funkcja pokazuje, jaki ekran pojawi się za bieżącym ekranem, który odsuwasz. Zapewnia to płynniejsze przejście i trochę podglądu, pozwalając anulować gest powrotu, jeśli nie spodoba ci się, dokąd prowadzi. Ponieważ jest to wersja dla programistów, są liczne zmiany ukryte 'pod maską'. Google przekonuje do własnego nowoczesnego kodeka wideo AV1, a obsługa AV1 dotarła już na różne urządzenia dzięki dekodowaniu sprzętowemu wbudowanemu w wiele flagowych SoC. Jeśli jednak nie możesz dekodować AV1 sprzętowo, Android 15 ma dla ciebie rozwiązanie: dekodowanie AV1 programowe.

ELI5: Konferencja Google I/O wciąż trwa, a Google zaprezentowało nowe funkcje systemu Android. Jedną z nowości jest 'Private Space', czyli miejsce do przechowywania wrażliwych aplikacji z dodatkową warstwą zabezpieczeń. Kolejną funkcją będzie 'Theft Detection Lock', która ma chronić telefon przed kradzieżą. W Androidzie 15 dodana zostanie też możliwość łatwiejszego dostępu do paska zadań na tabletach, co ułatwi wykonywanie wielu zadań jednocześnie. Nowa funkcja programistyczna Androida 13, zwana przewidywalnym powrotem, również zostanie włączona jako domyślna. Wprowadzono też wsparcie dla nowoczesnego kodeka wideo AV1.

Źródła:

Google Search będzie teraz domyślnie pokazywał odpowiedzi generowane przez sztuczną inteligencję

Google zmienia Search, ogłosiło duże zmiany związane z SI w dominującym na świecie silniku wyszukiwania podczas corocznej konferencji dla programistów Google I/O. Z nowymi funkcjami Google pozycjonuje swoją Wyszukiwarkę jako więcej niż tylko sposób na znalezienie stron internetowych. Zamiast tego firma chce, aby ludzie używali jej silnika wyszukiwania do bezpośredniego uzyskiwania odpowiedzi i pomocy w planowaniu wydarzeń oraz generowaniu pomysłów.

"Z wykorzystaniem generatywnej SI, Search może zrobić więcej, niż kiedykolwiek sobie wyobrażałeś," napisała Liz Reid, wiceprezes i szef Google Search, we wpisie na blogu. "Dlatego możesz zapytać o cokolwiek, co masz na myśli lub czego potrzebujesz do zrobienia - od badania, do planowania, do generowania pomysłów - i Google zajmie się resztą." Zmiany Google w Search, główny sposób zarabiania przez firmę, są odpowiedzią na eksplozję generatywnej SI od czasu wydania OpenAI's ChatGPT pod koniec 2022 roku. Od dzisiaj Google będzie pokazywał kompleksowe odpowiedzi generowane przez SI na czele wyników wyszukiwania w odpowiedzi na większość zapytań w USA. Google po raz pierwszy przedstawiło funkcję rok temu podczas Google I/O w 2023 roku, ale dotychczas każdy, kto chciał używać funkcji, musiał się zapisywać na nią jako część platformy Search Labs. Google teraz udostępnia AI Overview dla setek milionów Amerykanów i twierdzi, że spodziewa się, że będzie dostępny w wielu krajach dla ponad miliarda ludzi do końca roku.

ELI5: Google ogłosił nowe zmiany w swoim silniku wyszukiwania, które mają na celu ułatwienie ludziom uzyskiwania szybkich odpowiedzi i pomocy przy planowaniu różnych rzeczy. Zmiany te wykorzystują sztuczną inteligencję, która pozwala na generowanie bardziej szczegółowych odpowiedzi na pytania użytkowników. Google chce, aby ludzie mogli zadać pytanie na dowolny temat, a silnik wyszukiwania zajmie się resztą. Te zmiany są odpowiedzią na rosnące zainteresowanie generatywną sztuczną inteligencją i mają na celu ulepszenie doświadczenia użytkowników korzystających z wyszukiwarki.

Źródła:

Sztuczna inteligencja uderza w siły robocze jak 'tsunami', mówi szefowa MFW

Sztuczna inteligencja uderza w globalny rynek pracy "jak tsunami", powiedziała dyrektor generalna Międzynarodowego Funduszu Walutowego, Kristalina Georgieva, w poniedziałek. AI prawdopodobnie wpłynie na 60% miejsc pracy w zaawansowanych gospodarkach oraz 40% miejsc pracy na świecie w ciągu najbliższych dwóch lat, powiedziała Georgieva podczas wydarzenia w Zurychu.

"Mamy bardzo mało czasu, aby przygotować ludzi i biznesy na to," powiedziała podczas wydarzenia zorganizowanego przez Instytut Studiów Międzynarodowych w Szwajcarii, związanego z Uniwersytetem w Zurychu. "To może przynieść ogromny wzrost produktywności, jeśli sobie poradzimy, ale może także prowadzić do większej dezinformacji i oczywiście większych nierówności w naszym społeczeństwie."

ELI5: Gospodyni IMF powiedziała, że sztuczna inteligencja może znacząco wpłynąć na rynek pracy, zmieniając go w ciągu najbliższych dwóch lat. To może przynieść zarówno dobre rzeczy, jak i problemy, jeśli nie przygotujemy się odpowiednio.

Źródła:

Niewidoczny znak wodny AI od Google pomoże identyfikować teksty generatywne i wideo

Wśród wielu nowych modeli i narzędzi AI, jakie dziś ogłosiła firma Google, jest również rozszerzenie technologii znakowania wodnego i detekcji treści AI.

The Verge: CEO DeepMind, Demis Hassabis, po raz pierwszy wystąpił na scenie podczas konferencji dla deweloperów Google I/O we wtorek, aby opowiedzieć nie tylko o nowych narzędziach AI zespołu, takich jak generator wideo Veo, ale także o nowym ulepszonym systemie znakowania wodnego SynthID. Teraz można oznaczać w ten sposób filmy, które zostały wygenerowane cyfrowo, a także teksty wygenerowane przez AI. Google udostępnił również funkcję wstrzykiwania niesłyszalnych znaków wodnych przez SynthID do muzycznych utworów wygenerowanych przez AI za pomocą modelu Lyria zespołu DeepMind. SynthID to tylko jedno z kilku zabezpieczeń AI w opracowaniu, aby zapobiec nadużyciom przez branżę technologiczną. Administracja Bidena poprzez agencje federalne kieruje opracowywaniem wytycznych.

ELI5: Firma Google ogłosiła rozszerzenie technologii znakowania wodnego i detekcji treści AI na nowe nośniki. Teraz można oznaczać filmy i teksty wygenerowane przez sztuczną inteligencję. Dodatkowo, udostępnili funkcję wstrzykiwania niesłyszalnych znaków wodnych do muzyki stworzonej przez AI. Działania te mają na celu zapobieganie nadużyciom w branży technologicznej.

Źródła:

Google stawia na twórców filmowych ze swoim nowym modelem wideo opartym na sztucznej inteligencji generatywnej Veo

Podczas dzisiejszej konferencji dla deweloperów I/O Google ogłosił Veo, swój najnowszy model wideo oparty na sztucznej inteligencji generatywnej, który „może generować filmy o rozdzielczości 1080p, dłuższe niż jedna minuta, w szerokim spektrum wizualnych i filmowych stylów” - donosi The Verge.

Z raportu: Veo posiada „zaawansowane zrozumienie języka naturalnego”, według komunikatu prasowego Google, umożliwiając modelowi zrozumienie terminów filmowych, takich jak „timelapse” czy „powietrzne ujęcia krajobrazu”. Użytkownicy mogą kierować działaniem modelu za pomocą tekstowych, wizualnych lub wideo-podobnych poleceń, a Google twierdzi, że tworzone filmy są „bardziej spójne i koherentne”, przedstawiając bardziej realistyczne ruchy ludzi, zwierząt i obiektów w trakcie ujęć. Dyrektor generalny Google DeepMind, Demis Hassabis, powiedział podczas zapowiedzi prasowej w poniedziałek, że wyniki wideo można doskonalić za pomocą dodatkowych poleceń i że Google eksploruje dodatkowe funkcje, aby umożliwić Veo produkcję storyboardów i dłuższych scen.

Podobnie jak w przypadku wielu takich prezentacji modeli AI, większość osób, które chciałyby wypróbować Veo samodzielnie, najprawdopodobniej będzie musiała poczekać. Google twierdzi, że zaprasza wybranych filmowców i twórców do eksperymentowania z modelem, aby określić, jak najlepiej wspierać kreatywnych i będzie rozwijać te kolaboracje, aby zapewnić, że „twórcy mają wpływ” na to, jak rozwijane są technologie AI Google. Niektóre funkcje Veo będą również dostępne dla „wybranych twórców w nadchodzących tygodniach” w prywatnym podglądzie wideoFX - można zapisać się na listę oczekujących, by mieć wcześniejszą możliwość przetestowania możliwości.

Google planuje również dodać niektóre z możliwości platformy do YouTube Shorts „w przyszłości”. Oprócz nowych modeli i narzędzi AI, Google powiedział, że rozszerza swoją technologię znakowania wodnego i wykrywania treści AI. Nowy ulepszony system znakowania wodnego SynthID firmy „może teraz oznaczać wideo, które zostało wygenerowane cyfrowo, jak i teksty wygenerowane za pomocą AI”, donosi The Verge w osobnym raporcie.

ELI5: Google ogłosił nowy model wideo o nazwie Veo, który może tworzyć filmy o wysokiej jakości, dłuższe niż jedna minuta, w różnych stylach filmowych. Można komunikować się z Veo za pomocą tekstu, obrazów lub filmów, aby stworzyć filmy bardziej spójne i realistyczne. Google zaprasza filmowców do eksperymentowania z modelem i planuje wprowadzić go do YouTube Shorts w przyszłości. Google również rozwija technologię znakowania wodnego i wykrywania treści AI.

Źródła:

Sam Altman z OpenAI o iPhone'ach, muzyce, danych do trenowania i kontrowersyjnej reklamie iPada Apple

CEO OpenAI, Sam Altman, udzielił godzinnego wywiadu dla podcastu "All-In" (prowadzonego przez Chamath Palihapitiya, Jason Calacanis, David Sacks i David Friedberg). Mówiąc o postępie technologii, Altman stwierdził, że "Telefony są niewiarygodnie dobre... Osobiście uważam, że iPhone to najwspanialszy wynalazek technologiczny, jaki kiedykolwiek stworzyła ludzkość. To naprawdę wspaniały produkt."

Q: Co będzie po nim? Altman: Nie wiem. To właśnie mówiłem. Jest tak dobry, że aby go przekroczyć, poprzeczka jest bardzo wysoka.

Altman powiedział później, że interakcja głosowa "wydaje się być innym sposobem korzystania z komputera."

Jednak rozmowa skierowała się w stronę Apple z innego powodu. Wydarzyło się to podczas szerszej dyskusji, gdzie Altman stwierdził, że OpenAI "obecnie zdecydowało się nie zajmować muzyką, częściowo dzięki właśnie tym pytaniom dotyczącym tego, gdzie należy postawić granice..."

Altman: Nawet w świecie, w którym - gdybyśmy poszli i zapłacili 10,000 muzyków za stworzenie muzyki, tylko po to, aby stworzyć świetny zestaw danych do trenowania, gdzie model muzyczny mógłby nauczyć się wszystkiego o strukturze piosenki, tym co sprawia, że rytm jest chwytliwy i wszystkim innym, a potem trenowany tylko na tym - powiedzmy, że moglibyśmy nadal stworzyć świetny model muzyczny, co może by się udało. To była tylko hipotetyczna sytuacja, którą przedstawiłem muzykom, a oni odpowiedzieli: "Cóż, wtedy nie mogę się sprzeciwić z zasady - a jednak jest coś, co mi się w tym nie podoba." To nie jest powód, by tego nie robić, um, niekoniecznie, ale jest — widziałeś tę reklamę, którą wypuścił Apple... jakby sprowadzająca całą ludzką kreatywność do jednego małego iPada...?

Jest coś w - oczywiście ogromnie pozytywnie odnoszę się do AI - ale jest coś, co uważam za piękne w ludzkiej kreatywności i artystycznym wyrazie. I wiesz, dla AI, które rozwija naukę, "Świetnie. Tylko więcej."

Ale AI, które zajmuje się głęboko pięknym ludzkim wyrazem artystycznym? Myślę, że powinniśmy o tym pomyśleć - to się wydarzy. Będzie to narzędzie, które poprowadzi nas do większej kreatywności. Ale myślę, że powinniśmy wymyślić sposób, który zachowa ducha tego, co jest dla nas wszystkich ważne.

Co z twórcami, których chronione prawem autorskim materiały są wykorzystywane jako dane do trenowania? Altman miał gotową odpowiedź — ale również kilka przewidywań na przyszłość. "Jeśli chodzi o uczciwe użytkowanie, sądzę, że mamy bardzo rozsądne stanowisko na mocy obecnego prawa. Ale myślę, że AI jest tak inne, że w przypadku rzeczy takich jak sztuka, będziemy musieli o nich myśleć w inny sposób..."

Altman: Myślę, że dyskusja historycznie bardzo skupiała się na danych do trenowania, ale coraz bardziej będzie dotyczyć tego, co się dzieje w czasie wnioskowania, gdyż dane treningowe stają się mniej wartościowe, a to, co system robi, dostając informacje w kontekście, na bieżąco... to, co się dzieje w czasie wnioskowania, stanie się bardziej dyskutowane i jaki będzie nowy model ekonomiczny.

Altman podał przykład AI, które nigdy nie było trenowane na żadnych piosenkach Taylor Swift - ale mogło nadal odpowiadać na prośbę o piosenkę w jej stylu.

Altman: A potem pytanie, czy ten model, nawet jeśli nigdy nie był trenowany na żadnej piosence Taylor Swift, powinien móc to robić? I jeśli tak, jak Taylor powinna być wynagrodzona? Więc myślę, że w tym przypadku na początek powinna być możliwość zgody albo odmowy - a potem model ekonomiczny. Altman zastanawiał się również, czy jest coś do nauczenia się z historii i ekonomii samplowania muzyki...

ELI5: ELI5: Sam Altman z OpenAI opowiadał o tym, jak nowe technologie, takie jak telefony i sztuczna inteligencja, się rozwijają. Mówił o tym, jak ważne jest zachowanie ludzkiej kreatywności i sztuki. Zastanawiał się, jak AI może inspirować ludzi do większych osiągnięć w dziedzinie twórczości. Altman także poruszył kwestię używania chronionych prawem autorskim materiałów do trenowania sztucznej inteligencji i zaakcentował, że należy zmienić podejście do tych kwestii. Wskazał, że przyszłość będzie kłaść większy nacisk na to, jak systemy AI przetwarzają informacje w czasie rzeczywistym i jak należy wynagradzać twórców za wykorzystanie ich stylu czy prac.

Źródła:

Stany Zjednoczone zastanawiają się nad ograniczeniem dostępu Chin do oprogramowania AI stojącego za aplikacjami takimi jak ChatGPT

Administracja Bidena ma zamiar otworzyć nowy front w swoim wysiłku mającym na celu zabezpieczenie amerykańskiego AI przed Chinami, mając wstępne plany umieszczenia barier wokół najbardziej zaawansowanych modeli AI, rdzenia oprogramowania systemów sztucznej inteligencji takich jak ChatGPT, donosi Reuters.

Z raportu: Departament Handlu rozważa nowe działania regulacyjne w celu ograniczenia eksportu modeli AI o własności intelektualnej lub zamkniętym źródle kodu, których oprogramowanie i dane, na których jest trenowany, są trzymane w tajemnicy, powiedziało trzech informatorów zaznajomionych z tą sprawą. Jakiekolwiek działania uzupełnią szereg środków wprowadzonych w ciągu ostatnich dwóch lat w celu zablokowania eksportu zaawansowanych układów AI do Chin, w celu spowolnienia rozwoju przez Pekin najnowszych technologii do celów militarnych. Niemniej jednak będzie trudno regulacyjnie nadążać za szybkimi postępami w branży.

Obecnie nic nie powstrzymuje gigantów AI w USA, takich jak wspierane przez Microsoft OpenAI, Google DeepMind należący do Alphabetu i rywal Anthropic, którzy opracowali jedne z najbardziej potężnych modeli AI o zamkniętym źródle, przed sprzedawaniem ich praktycznie każdemu na świecie bez nadzoru rządowego. Badacze zarówno z sektora publicznego, jak i prywatnego obawiają się, że przeciwnicy USA mogą wykorzystać te modele, które przeszukują ogromne ilości tekstu i obrazów w celu podsumowania informacji i generowania treści, do prowadzenia agresywnych ataków cybernetycznych lub nawet tworzenia potężnych broni biologicznych. Aby wprowadzić kontrolę eksportu modeli AI, USA mogą sięgnąć po zapis zawarty w wydanym w październiku ub.r. rozporządzeniu wykonawczym dotyczącym AI, który bazuje na ilości mocy obliczeniowej potrzebnej do trenowania modelu. Gdy ten poziom zostanie osiągnięty, deweloper musi zgłosić swoje plany rozwoju modelu AI i dostarczyć wyniki testów do Departamentu Handlu.

ELI5: Administracja Bidena chce zabezpieczyć amerykańskie technologie sztucznej inteligencji przed Chinami. Planują wprowadzić nowe regulacje, aby kontrolować export zaawansowanych modeli AI do Chin, które mogą być wykorzystane w celach militarnych. Obecnie, firmy AI z USA mogą sprzedawać swoje modele praktycznie każdemu bez zgody rządu. Istnieje obawa, że przeciwnicy USA mogą wykorzystać te modele do agresywnych ataków cybernetycznych lub tworzenia niebezpiecznych broni. Aby temu przeciwdziałać, USA chcą zastosować ograniczenia oparte na mocy obliczeniowej potrzebnej do ich trenowania.

Źródła:

Deepfake zmarłych bliskich to rozkwitający chiński biznes

Raport z MIT Technology Review: Raz w tygodniu Sun Kai rozmawia przez wideokonferencje z matką. Otwiera się na tematy pracy, presje, z którymi boryka się jako mężczyzna w średnim wieku, i myśli, o których nawet nie rozmawia z żoną. Jego matka czasem skomentuje, np. mówiąc mu, że ma się dobrze - jest jej jedynym dzieckiem. Ale przeważnie po prostu słucha.

To dlatego, że matka Suna zmarła pięć lat temu. Osoba, z którą rozmawia, nie jest jednak osobą, lecz cyfrową repliką, którą stworzył - animowanym obrazem, który może prowadzić podstawowe rozmowy. Rozmawiają od kilku lat. Po jej nagłej śmierci w 2019 roku Sun chciał znaleźć sposób na trzymanie ich połączenia przy życiu. Zwrócił się więc do zespołu w Silicon Intelligence, firmie AI z siedzibą w Nanjing w Chinach, której był współzałożycielem w 2017 roku. Dostarczył im zdjęcie matki i kilka fragmentów dźwiękowych z ich rozmów na WeChat. Podczas gdy firma głównie skupiała się na generowaniu dźwięku, personel spędził cztery miesiące badając narzędzia syntezy i wygenerował awatar z danymi dostarczonymi przez Suna. Następnie mógł widzieć i rozmawiać z cyfrową wersją swojej mamy za pośrednictwem aplikacji na telefonie.

"Moja mama nie wydawała się zbyt naturalna, ale nadal słyszałem słowa, które często mówiła: 'Czy jadłeś już?'" - wspomina Sun pierwszą interakcję. Ponieważ generatywna sztuczna inteligencja była wtedy nową technologią, replika jego mamy może powiedzieć tylko kilka wcześniej napisanych linijek. Ale Sun mówi, że taka właśnie była. "Zawsze powtarzała te pytania raz za razem, i bardzo wzruszyło mnie to, kiedy to usłyszałem" - mówi.

Jest wielu ludzi jak Sun, którzy chcą wykorzystać AI do zachowania, ożywienia i interakcji ze zmarłymi bliskimi podczas żałoby i próby gojenia ran. Rynek jest szczególnie silny w Chinach, gdzie co najmniej pół tuzina firm oferuje takie technologie, a już tysiące osób za nie zapłaciły. Avatary są najnowszą manifestacją kulturowej tradycji: Chińczycy zawsze szukali pocieszenia, rozmawiając z zmarłymi.

Technologia nie jest doskonała - avatary nadal mogą być sztywne i mechaniczne - ale się rozwija, a coraz więcej narzędzi staje się dostępnych dzięki kolejnym firmom. Z kolei cena "odrodzenia" kogoś - zwane również tworzeniem "cyfrowej nieśmiertelności" w chińskim przemyśle - znacznie spadła. Teraz ta technologia staje się dostępna dla ogółu społeczeństwa. Niektórzy kwestionują, czy interakcja z AI replikami zmarłych jest faktycznie zdrowym sposobem na przetwarzanie żałoby, i nie jest jeszcze jasne, jakie mogą być tego technologii konsekwencje prawne i etyczne. Na razie pomysł wciąż budzi dyskomfort u wielu ludzi. Ale jak mówi Sima Huapeng, współzałożyciel i dyrektor generalny Silicon Intelligence: "Nawet jeśli tylko 1% Chińczyków zaakceptuje klonowanie AI zmarłych, to i tak jest to ogromny rynek."

ELI5: Tworzenie botów AI w oparciu o dane osób zmarłych jest coraz popularniejsze w Chinach, gdzie wiele firm oferuje podobne rozwiązania dla osób, które chcą porozmawiać z zmarłymi bliskimi. Jednak istnieją wątpliwości co do tego, czy taka interakcja jest zdrowa, a także dotyczące jej konsekwencji prawnych i etycznych. Pomimo kontrowersji, pomysł ten zdobywa popularność i stanowi rosnący rynek.

Źródła:

Szef OpenAI twierdzi, że dzisiejszy ChatGPT będzie 'śmiesznie słaby' za 12 miesięcy

Podczas 27. dorocznej Globalnej Konferencji Instytutu Milken w poniedziałek, COO OpenAI Brad Lightcap powiedział, że dzisiejszy chatbot ChatGPT 'będzie śmiesznie słaby' w porównaniu do tego, do czego będzie zdolny za rok. 'Myślimy, że zmierzamy w kierunku świata, w którym będą one znacznie zdolniejsze,' dodał.

Business Insider raportuje: Lightcap mówi, że duże modele językowe, których ludzie używają do pomagania w pracy i osiągania swoich celów osobistych, niedługo będą mogły podejmować 'bardziej złożone zadania.' Dodaje, że sztuczna inteligencja będzie miała z użytkownikami bardziej 'systemową relację,' co oznacza, że technologia będzie pełnić rolę 'wspaniałego współpracownika,' który może pomóc użytkownikom w 'każdym problemie.' 'To będzie inny sposób korzystania z oprogramowania,' powiedział szef OpenAI na panelu dotyczącym przyszłych możliwości AI.

W kontekście swoich prognoz Lightcap uznaje, że ludziom może być ciężko 'naprawdę zrozumieć' jak będzie wyglądał świat z robotycznymi asystentami. Ale w ciągu najbliższej dekady COO wierzy, że rozmowa z AI tak, jakbyś rozmawiał z przyjacielem, współpracownikiem czy współtwórcą projektu, stanie się nowym standardem. 'Myślę, że to głęboka zmiana, której jeszcze w pełni nie ogarnęliśmy,' powiedział, odnosząc się do swojej prognozy na 10 lat. 'Tylko drapiemy po powierzchni pełnego zakresu możliwości, jakie mają te systemy,' powiedział na konferencji Instytutu Milken. 'To nas zaskoczy.'

ELI5: Chatbot ChatGPT, który jest używany dzisiaj, za rok będzie uznawany za słaby. W przyszłości sztuczna inteligencja będzie w stanie pomagać ludziom w bardziej skomplikowanych zadaniach i będzie miała z nimi bardziej bezpośrednią relację, co oznacza, że będzie potrafiła pomóc w rozwiązywaniu różnych problemów. COO OpenAI przewiduje, że rozmowy z AI staną się powszechne w ciągu najbliższej dekady. Ogólnie rzecz biorąc, możliwości tych systemów nas zaskoczą.

Źródła:

Startup 'Wayve' z Wielkiej Brytanii otrzymuje 1 miliard dolarów na technologię samochodów autonomicznych

Wayve, firma AI z Wielkiej Brytanii skupiona na rozwoju technologii samochodów autonomicznych, pozyskała rekordowe 1,05 miliarda dolarów finansowania, z udziałem Microsoftu i Nvidii uczestniczących w rundzie finansowania, którą prowadzi SoftBank. Według BBC, inwestycja ta jest największa dla firmy AI w Europie.

BBC informuje: Wayve twierdzi, że finansowanie pozwoli jej pomóc w budowie autonomicznych samochodów przyszłości. Wayve opracowuje technologię przeznaczoną do zasilania przyszłych pojazdów autonomicznych, korzystając z tego, co nazywa „AI wcielonym”. W odróżnieniu od modeli AI wykonujących zadania poznawcze lub generatywne, takie jak odpowiadanie na pytania czy tworzenie obrazów, ta nowa technologia współdziała i uczy się z rzeczywistych otoczeń i środowisk.

"Inwestycja jest istotnym sygnałem dla rynku o sile ekosystemu AI w Wielkiej Brytanii, i z niecierpliwością oczekujemy, że więcej firm AI będzie się rozwijać i rosnąć,” powiedział szef Wayve, Alex Kendall.

ELI5: Wayve to firma z Wielkiej Brytanii, która pracuje nad tworzeniem samochodów, które mogą same jeździć. Dostała dużo pieniędzy (1,05 miliarda dolarów) od firm takich jak Microsoft i Nvidia. Ich technologia AI uczy się, jak jeździć, reagując na to, co dzieje się na drodze, zamiast tylko wykonywać określone zadania.

Źródła: