Google użyje Gemini do wykrywania oszustw podczas połączeń

Podczas konferencji Google I/O we wtorek Google zaprezentował funkcję, która będzie alertować użytkowników o potencjalnych oszustwach podczas rozmowy telefonicznej.

TechCrunch donosi: Funkcja, która zostanie wbudowana w przyszłą wersję Androida, wykorzystuje Gemini Nano, najmniejszą wersję oferty generatywnej sztucznej inteligencji Google, która może działać całkowicie w urządzeniu. System skutecznie nasłuchuje „wzorców rozmów często kojarzonych z oszustwami” w czasie rzeczywistym. Google podaje przykład osoby udającej „przedstawiciela banku”. Powszechne taktyki oszustów, takie jak prośby o hasła i karty podarunkowe, również wywołają reakcję systemu. Sposoby te są dobrze znane jako sposób wyłudzania pieniędzy, ale nadal wiele osób na świecie jest podatnych na tego rodzaju oszustwa. Po wykryciu oszustwa pojawi się powiadomienie informujące użytkownika, że może paść ofiarą nieuczciwych praktyk.

Konkretna data premiery funkcji nie została jeszcze ustalona. Jak wiele innych rozwiązań Google, Gemini Nano będzie mógł więcej osiągnąć w przyszłości. Wiemy jednak, że funkcja będzie dostępna opcjonalnie.

ELI5: Na nowym Androidzie będzie funkcja, która pomaga rozpoznać oszustwa podczas rozmów telefonicznych. Wykorzystuje ona sztuczną inteligencję do słuchania „wzorców rozmów” i reaguje na podejrzane sytuacje, np. osoby udające pracowników banku. Kiedy system wykryje oszustwo, użytkownik zostanie ostrzeżony. Ta funkcja będzie opcjonalna i nie ma jeszcze ustalonej daty wprowadzenia.

Źródła:

Android 15 z funkcjami 'Private Space', wykrywaniem kradzieży i wsparciem dla AV1

Wygląda na to, że Google chce być teraz przede wszystkim firmą skoncentrowaną na AI. Android już miał nieco nowości związanych z AI, ale teraz, gdy spełnione zostały najważniejsze wymagania, mamy rzeczywiste nowości dotyczące systemu operacyjnego. Jedną z ciekawych nowości w tej wersji jest 'Private Space', w której, jak mówi Google, użytkownicy mogą 'przechowywać wrażliwe aplikacje z dala od ciekawskich oczu, pod dodatkową warstwą uwierzytelniania'.

Po pierwsze, jest nowa, domyślnie ukryta część szuflady aplikacji, która może przechowywać te wrażliwe aplikacje, a ujawnienie tej części szuflady wymaga drugiej tury uwierzytelniania na ekranie blokady, które może być inne niż główny ekran blokady telefonu. Podobnie jak aplikacje 'Work', aplikacje w tej sekcji działają na oddzielnym profilu. Dla systemu są one uruchamiane przez oddzielnego 'użytkownika' z oddzielnymi danymi, których nie będą mogły zobaczyć aplikacje nieprywatne. Ciekawym jest, że Google mówi, że 'gdy użytkownik zablokuje private space, profil jest wstrzymywany, tj. aplikacje nie są już aktywne', więc aplikacje w zablokowanym Private Space nie będą mogły pokazywać powiadomień, chyba że przejdziesz przez drugi ekran blokady.

Kolejną nowością w Androidzie 15 jest 'Theft Detection Lock', choć funkcja ta nie pojawi się w dzisiejszej becie i zostanie wydana 'później w tym roku'. Funkcja używa akcelerometrów i 'Google AI' do 'wyczuwania, czy ktoś wyrywa telefon z twojej ręki i próbuje uciec, jechać na rowerze lub odjechać'. Wszelkie tego typu gwałtowne ruchy spowodują automatyczne zablokowanie telefonu.

Android 12L dodał do interfejsu tabletów pasek zadań przypominający desktop, pokazujący niedawne i ulubione aplikacje na dole ekranu, ale był dostępny tylko na ekranie głównym i w ostatnich aplikacjach. Producenci OEM natychmiast zrozumieli, że ten pasek powinien być dostępny cały czas i zmodyfikowali Androida, aby to umożliwić. W Androidzie 15 ciągły dostęp do paska zadań będzie normalną opcją, co umożliwi lepszą wielozadaniowość na tabletach i (prawdopodobnie) otwartych telefonach składanych. Możesz teraz również zapisywać skróty do widoku podzielonego ekranu na pasku zadań.

Funkcja programistyczna Androida 13, przewidywalny powrót, zostanie wreszcie włączona domyślnie. Wykonując gest powrotu, ta funkcja pokazuje, jaki ekran pojawi się za bieżącym ekranem, który odsuwasz. Zapewnia to płynniejsze przejście i trochę podglądu, pozwalając anulować gest powrotu, jeśli nie spodoba ci się, dokąd prowadzi. Ponieważ jest to wersja dla programistów, są liczne zmiany ukryte 'pod maską'. Google przekonuje do własnego nowoczesnego kodeka wideo AV1, a obsługa AV1 dotarła już na różne urządzenia dzięki dekodowaniu sprzętowemu wbudowanemu w wiele flagowych SoC. Jeśli jednak nie możesz dekodować AV1 sprzętowo, Android 15 ma dla ciebie rozwiązanie: dekodowanie AV1 programowe.

ELI5: Konferencja Google I/O wciąż trwa, a Google zaprezentowało nowe funkcje systemu Android. Jedną z nowości jest 'Private Space', czyli miejsce do przechowywania wrażliwych aplikacji z dodatkową warstwą zabezpieczeń. Kolejną funkcją będzie 'Theft Detection Lock', która ma chronić telefon przed kradzieżą. W Androidzie 15 dodana zostanie też możliwość łatwiejszego dostępu do paska zadań na tabletach, co ułatwi wykonywanie wielu zadań jednocześnie. Nowa funkcja programistyczna Androida 13, zwana przewidywalnym powrotem, również zostanie włączona jako domyślna. Wprowadzono też wsparcie dla nowoczesnego kodeka wideo AV1.

Źródła:

Project Astra to odpowiedź Google'a na nowe ChatGPT

Podczas konferencji Google I/O Google zaprezentował „asystenta sztucznej inteligencji nowej generacji” o nazwie Project Astra, który potrafi „zrozumieć, co widzi kamera Twojego telefonu” - informuje Wired. Projekt Astra został ogłoszony po wcześniejszej premierze modelu GPT-4o od OpenAI. GPT-4o to SI która potrafi szybko odpowiadać na polecenia głosowe i rozmawiać o tym, co „widzi” za pośrednictwem aparatu smartfona lub na ekranie komputera.

Według informacji z serwisu Wired, Project Astra „korzysta również z bardziej ludzkiego głosu i emocjonalnie wyrazistego tonu, symulując emocje, takie jak zdziwienie czy nawet flirt”. Z raportu: „W odpowiedzi na komendy głosowe, Astra potrafiła zrozumieć obiekty i sceny widziane przez kamery urządzeń oraz rozmawiać na ich temat w naturalnym języku. Zidentyfikowała głośnik komputerowy i odpowiedziała na pytania dotyczące jego podzespołów, rozpoznała dzielnicę Londynu po widoku z okna biurowego, odczytała i przeanalizowała kod z ekranu komputera, napisała limeryk o ołówkach i przypomniała, gdzie ktoś zostawił okulary.

Google informuje, że Project Astra będzie dostępny za pośrednictwem nowego interfejsu o nazwie Gemini Live jeszcze w tym roku. Demis Hassabis, lider firmy odpowiedzialny za ponowne umocnienie pozycji w dziedzinie sztucznej inteligencji, powiedział, że firma nadal testuje kilka prototypowych inteligentnych okularów i nie podjęła jeszcze decyzji, czy wypuścić którekolwiek z nich na rynek. Hassabis uważa, że wzbogacenie modeli sztucznej inteligencji głębszym zrozumieniem świata fizycznego będzie kluczowe dla dalszego postępu w tej dziedzinie i zwiększenia odporności systemów, takich jak Project Astra.

Inne obszary sztucznej inteligencji, w tym praca Google DeepMind nad programami sztucznej inteligencji do gier, mogą pomóc, twierdzi. Hassabis i inni mają nadzieję, że tego typu prace mogą być rewolucyjne dla robotyki, dziedziny, w której Google również inwestuje. „Uniwersalny agent asystent wielomodalny zmierza w kierunku sztucznej inteligencji ogólnej” – powiedział Hassabis odnosząc się do przyszłego punktu, gdzie maszyny będą w stanie robić wszystko, co ludzki umysł. „To nie jest AGI ani nic takiego, ale to początek czegoś”.

ELI5: Google pokazał na konferencji nowego asystenta sztucznej inteligencji o nazwie Project Astra. Ten asystent potrafi rozumieć to, co widzi kamera Twojego telefonu i reagować na to, co słyszy za pomocą mikrofonu. Project Astra potrafi nawet "czuć" emocje i używać bardziej ludzkiego tonu w komunikacji.

Źródła: