Windows teraz ma funkcję Kopiuj i Wklej obsługującą sztuczną inteligencję

Umar Shakir donosi za pośrednictwem The Verge: Microsoft dodaje nową funkcję Zaawansowane Wklejanie do PowerToys dla Windows 11, która może konwertować zawartość schowka na żywo przy użyciu mocy sztucznej inteligencji. Nowa funkcja może pomóc ludziom przyspieszyć pracę poprzez czynności takie jak kopiowanie kodu w jednym języku i wklejanie go w innym, chociaż jej najlepsze sztuczki wymagają kredytów OpenAI API. Zaawansowane Wklejanie jest zawarte w wersji 0.81 PowerToys i po włączeniu można je aktywować za pomocą specjalnego polecenia klawiszowego: Windows Key + Shift + V. To otwiera okno tekstowe Zaawansowanego Wklejania, które oferuje opcje konwersji wklejenia, w tym zwykły tekst, markdown i JSON. Jeśli włączysz Wklej z sztuczną inteligencją w ustawieniach Zaawansowanego Wklejania, zobaczysz także monit OpenAI, w którym można wprowadzić konwersję, której chcesz -- zwięzły tekst, tłumaczenia, wygenerowany kod, przepisanie z casualowego na profesjonalny styl, składnia Yody czy cokolwiek innego, o co poprosisz.

ELI5: Microsoft dodaje nową funkcję do PowerToys dla Windows 11, która pozwala inteligentnie konwertować zawartość schowka na różne formaty. Dzięki temu można szybciej kopiować i wklejać różne informacje, na przykład kod w różnych językach programowania. Aby korzystać z tej funkcji, należy włączyć ją za pomocą kombinacji klawiszy Windows Key + Shift + V i wybrać format konwersji, na przykład tekst, markdown lub JSON. Można także wykorzystać moc sztucznej inteligencji do konwersji tekstu na życzenie, na przykład tłumaczenia lub generowanie kodu.

Źródła:

Fabryka Moonshot Google'a wraca na Ziemię

Fabryka moonshotów Alphabetu, X, zmniejsza skalę swoich ambitnych projektów w obliczu obaw dotyczących konkurencji dla podstawowej działalności wyszukiwania Google'a ze strony chatbotów opartych na sztucznej inteligencji, takich jak ChatGPT. Laboratorium, będące kiedyś symbolem zaangażowania Google'a w innowacje, teraz wydzielają projekty jako start-upy, zamiast je integrować z Alphabetem. Ten zwrot odzwierciedla szerszy trend wśród gigantów technologicznych, którzy redukują koszty i skupiają się na swoich podstawowych działaniach w odpowiedzi na dynamicznie zmieniający się krajobraz sztucznej inteligencji.

ELI5: Firma Alphabet, która wcześniej zajmowała się dużymi projektami, teraz decyduje się na zmniejszenie skali tych projektów z powodu rosnącej konkurencji w dziedzinie sztucznej inteligencji, zwłaszcza chatbotów jak ChatGPT, aby skoncentrować się na swojej głównej usłudze - wyszukiwaniu Google'a.

Źródła:

Inżynierowie Oprogramowania ds. Sztucznej Inteligencji Zarabiają o 100 000 Dolarów Więcej Niż Ich Koledzy

Boom sztucznej inteligencji i rosnący niedobór talentów spowodowały, że firmy płacą inżynierom oprogramowania ds. AI znacznie więcej niż ich nie-AI odpowiednikom.

Na kwiecień 2024 r. inżynierowie oprogramowania ds. AI w USA otrzymywali wynagrodzenie medianowe niemal 300 000 dolarów, podczas gdy inni technicy oprogramowania zarabiali około 100 000 dolarów mniej, zgodnie z danymi zebranymi przez stronę z danymi płacowymi Levels.fyi. Różnica płacowa, która wynosiła już około 30% na początku 2022 r., wzrosła do niemal 50%.

"Jest jasne, że firmy cenią umiejętności związane z AI i są skłonne za nie zapłacić premię, bez względu na poziom stanowiska" - napisała data scientist Alina Kolesnikova w raporcie Levels.fyi. Ta dysproporcja jest bardziej zauważalna w niektórych firmach. Na przykład firma robotaksówkowa Cruise płaci inżynierom AI na poziomie 680 500 dolarów - podczas gdy ich nie-AI koledzy zarabiają o 185 500 dolarów mniej, zgodnie z danymi Levels.fyi.

ELI5: Firmy płacą inżynierom, którzy pracują nad sztuczną inteligencją, dużo więcej niż innym programistom, ponieważ umiejętności związane z AI są bardzo poszukiwane i ważne. W Stanach Zjednoczonych inżynierowie ds. AI zarabiają średnio około 300 000 dolarów rocznie, podczas gdy inni programiści zarabiają około 100 000 dolarów mniej. Ta różnica w zarobkach wzrosła z 30% na początku 2022 r. do prawie 50% na kwiecień 2024 r.

Źródła:

Google AI Search zaleca użytkownikom nakładać klej na pizzę, ponieważ jest trenowany na postach z Reddita

Google płaci Redditowi 60 milionów dolarów rocznie za szkolenie swojej sztucznej inteligencji na postach z Reddita, i wygląda na to, że sztuczna inteligencja Google teraz czerpie bezpośrednio z dna internetu. Wyszukiwanie z AI Google'a dotyczące "sera nie przylepiającego się do pizzy" to genialna informacja, którą zdobył z 11-letniego posta na Reddit.

ELI5: Google płaci Redditowi dużo pieniędzy za korzystanie z postów na Reddicie do nauki swojej sztucznej inteligencji, a teraz ta AI zdobywa informacje z różnych miejsc w internecie, np. z Reddita, jak ten o serze nie przylepiającym się do pizzy.

Źródła:

NetBSD zakazuje używania kodu generowanego przez sztuczną inteligencję

Programiści NetBSD mają teraz zakaz korzystania z kodu generowanego przez sztuczną inteligencję z ChatGPT, CoPilot lub innych narzędzi AI. Czas pokaże, jak to wpłynie na użytkowników i zespół core.

"Jeśli wprowadzasz kod, który nie został napisany przez ciebie, sprawdź przepisy licencyjne dotyczące tego kodu, pozwolą one na importowanie go do repozytorium źródłowego NetBSD i bezpłatną dystrybucję," czytamy w zaktualizowanych wytycznych dotyczących commitów NetBSD. "Skonsultuj się z autorem lub autorami kodu, sprawdź, czy byli jedynymi autorami kodu i zweryfikuj, czy nie skopiowali żadnego innego kodu. Założenie jest takie, że kod wygenerowany przez duży model językowy lub podobną technologię, taką jak Copilot firmy GitHub/Microsoft, ChatGPT firmy OpenAI czy Code Llama firmy Facebook/Meta, jest skażonym kodem, i nie może być wprowadzany bez wcześniejszej pisemnej zgody rdzenia."

ELI5: NetBSD wprowadził nowe zasady, które zabraniają programistom korzystania z kodu generowanego przez sztuczną inteligencję, taką jak ChatGPT czy CoPilot. Mają ograniczyć ryzyko naruszenia praw autorskich i zabezpieczyć jakość kodu w projekcie. Programiści muszą teraz dokładniej sprawdzać pochodzenie kodu, zanim go dodadzą do NetBSD. To zmiana, która ma na celu chronić projekt i jego użytkowników.

Źródła:

'Openwashing'

The New York Times: *W świecie technologii toczy się ożywiona debata na temat tego, czy modele sztucznej inteligencji powinny być „open source”. Elon Musk, który pomógł założyć OpenAI w 2015 roku, pozwał startup i jego dyrektora zarządzającego, Sama Altmana, zarzucając firmie odstąpienie od jej misji otwartości. Administracja Bidena prowadzi dochodzenie w sprawie ryzyka i korzyści związanych z modelami open source. Zwolennicy modeli open source A.I. twierdzą, że są one bardziej sprawiedliwe i bezpieczniejsze dla społeczeństwa, podczas gdy przeciwnicy twierdzą, że są one bardziej podatne na nadużycia o szkodliwym zamiarze.

Jedna duża przeszkoda w debacie? Nie ma jednomyślnej definicji tego, co tak naprawdę oznacza open source A.I. I niektórzy oskarżają firmy A.I. o „openwashing” – używanie terminu „open source” w sposób nieuczciwy, aby wyglądać dobrze. (Oskarżenia o openwashing były wcześniej kierowane w stronę projektów, które zbyt swobodnie posługiwały się etykietą open source).

Na blogu Open Future, europejskiego think tanku wspierającego otwarte źródła, Alek Tarkowski napisał: „Jednym z wyzwań jest stworzenie wystarczającej ilości barier ochronnych przeciwko próbom firm w zakresie „openwashing””. W zeszłym miesiącu Linux Foundation, organizacja non-profit wspierająca projekty oprogramowania open-source, ostrzegła, że „trend „openwashing” zagraża samej zasadzie otwartości – swobodnemu dzieleniu się wiedzą w celu możliwości inspekcji, replikacji i zbiorowego postępu”. Organizacje, które nadają swoim modelom tę etykietę, mogą podejść do otwartości zupełnie inaczej.

Głównym powodem jest to, że podczas gdy oprogramowanie open source pozwala komukolwiek na replikację lub modyfikację, zbudowanie modelu A.I. wymaga znacznie więcej niż kodu. Tylko garstka firm jest w stanie sfinansować wymaganą moc obliczeniową i katalogowanie danych. Dlatego niektórzy eksperci twierdzą, że określanie dowolnego A.I. jako „open source” jest w najlepszym przypadku wprowadzające w błąd, a w najgorszym narzędziem marketingowym. „Nawet maksymalnie otwarte systemy A.I. nie pozwalają na otwarty dostęp do zasobów niezbędnych do „demokratyzacji” dostępu do A.I., ani nie umożliwiają pełnej kontroli” – powiedział David Gray Widder, doktorant w Cornell Tech, który badał wykorzystanie etykiety „open source” przez firmy A.I.

ELI5: W raporcie z The New York Times mówi się o tym, czy modele sztucznej inteligencji powinny być dostępne publicznie, czyli "open source". Ludzie mają różne zdania na ten temat. Czasami firmy nazywają swoje produkty "open source", żeby wyglądać lepiej. Jednak nie zawsze oznacza to, że każdy może z nich korzystać. Budowanie modeli A.I. wymaga dużo pracy i danych, więc nie zawsze są one dostępne dla wszystkich. Niektórzy uważają, że nazywanie ich "open source" jest mylące lub jest chwytem marketingowym.

Źródła:

Sony rzuca wyzwanie sztucznej inteligencji

Sony Music Group, jedna z największych wytwórni płytowych na świecie, ostrzegła firmy zajmujące się sztuczną inteligencją i platformy do streamingu muzyki przed używaniem zawartości firmy bez wyraźnej zgody.

Według raportu: Sony Music, której artyści to m.in. Lil Nas X i Celine Dion, wysłało listy do ponad 700 firm w celu ochrony swojej własności intelektualnej, w tym okładek albumów, metadanych, kompozycji muzycznych i tekstów, przed używaniem ich do trenowania modeli AI. "Nieautoryzowane użycie" treści grupy Sony Music w "trenowaniu, rozwijaniu lub komercjalizacji systemów AI" pozbawia firmę i jej artystów kontroli oraz wynagrodzenia za te prace, zgodnie z listem, który został uzyskany przez Bloomberg News. Sony Music, podobnie jak reszta branży, boryka się z próbą zachowania równowagi między twórczym potencjałem szybko rozwijającej się technologii a ochroną praw artystów i własnych zysków. "Wspieramy artystów i autorów piosenek w wykorzystywaniu nowych technologii na rzecz ich sztuki," oświadczyła grupa Sony Music w komunikacie z czwartku. "Jednak innowacje te muszą zapewnić szacunek dla praw autorów piosenek i wykonawców, w tym praw autorskich."

ELI5: Sony Music Group ostrzegło firmy tworzące sztuczną inteligencję i platformy do streamowania muzyki, że nie mogą używać zawartości muzycznej firmy bez zgody. Firma wysłała listy do ponad 700 firm, żeby chronić swoje utwory i zapewnić, że nie są wykorzystywane bez pozwolenia do trenowania systemów sztucznej inteligencji. Chce chronić prawa swoich artystów i zapewnić im zyski za ich prace. Firmy muszą szanować prawa autorskie artystów, nawet jeśli używają nowych technologii.

Źródła:

Senatorowie Namawiają do Przyznania 32 Miliardów Dolarów na rozwój AI

Dwupartyjna grupa czterech senatorów na czele z liderem większości Chuckiem Schumerem zaleca, aby Kongres przeznaczył co najmniej 32 miliardy dolarów w ciągu najbliższych trzech lat na rozwój sztucznej inteligencji i wprowadzenie środków zabezpieczających, pisząc w raporcie opublikowanym w środę, że USA musi "wykorzystać możliwości i stawić czoła ryzykom" szybko rozwijającej się technologii.

AP: Grupa dwóch demokratów i dwóch republikanów powiedziała we wtorek w wywiadzie, że choć czasami nie zgadzają się co do najlepszych dróg naprzód, konieczne jest znalezienie konsensusu, gdy technologia rozwija się i inne kraje, takie jak Chiny, inwestują ciężko w jej rozwój. Zgodzili się na szereg szerokich zaleceń politycznych, które zostały uwzględnione w ich 33-stronicowym raporcie. Choć jakiekolwiek ustawodawstwo związane z AI będzie trudne do przejścia, zwłaszcza w roku wyborczym i przy podzielonym Kongresie, senatorowie stwierdzili, że regulacje i zachęty do innowacji są pilnie potrzebne.

ELI5: Grupa czterech senatorów, dwóch demokratów i dwóch republikanów, sugeruje wydanie co najmniej 32 miliardów dolarów w ciągu trzech lat na rozwój sztucznej inteligencji. Piszą, że USA powinny korzystać z możliwości i radzić sobie z zagrożeniami związanymi z tą technologią. Senatorowie podkreślają, że ważne jest znalezienie porozumienia, pomimo różnic politycznych, ponieważ inne kraje, takie jak Chiny, inwestują dużo w AI. W swoim raporcie zaproponowali szereg zaleceń, ale uchwalenie takiej ustawy będzie trudne, szczególnie w czasie wyborów i gdy Kongres jest podzielony. Ponadto senatorowie uważają, że konieczne są regulacje i zachęty do innowacji w dziedzinie sztucznej inteligencji.

Źródła:

Microsoft prosi setki pracowników AI z Chin o rozważenie przeniesienia w związku z napięciami między USA a Chinami

Microsoft prosi setki pracowników działów zajmujących się chmurą obliczeniową i sztuczną inteligencją w Chinach o rozważenie przeniesienia się za granicę w świetle rosnących napięć między Waszyngtonem a Pekinem dotyczących kluczowej technologii.

WSJ: Pracownicy, głównie inżynierowie o chińskiej narodowości, otrzymali niedawno możliwość przeniesienia do takich krajów jak USA, Irlandia, Australia i Nowa Zelandia, jak poinformowali ludzie zaznajomieni ze sprawą. Firma prosi około 700 do 800 osób, które zajmują się uczeniem maszynowym i innymi pracami związanymi z chmurą obliczeniową, powiedziała jedna z osób. Krok podjęty przez jedną z największych firm w USA działających w chmurze obliczeniowej i sztucznej inteligencji następuje w czasie, gdy administracja Bidena stara się nałożyć bardziej rygorystyczne ograniczenia na możliwości Chin do rozwijania zaawansowanej sztucznej inteligencji. Biały Dom rozważa nowe przepisy, które wymagałyby od Microsoft oraz innych amerykańskich firm zajmujących się chmurą obliczeniową uzyskania licencji przed udzielaniem chińskim klientom dostępu do układów AI.

ELI5: Firma Microsoft chce, aby setki swoich pracowników z Chin, którzy pracują nad technologią chmurową i sztuczną inteligencją, przeniosły się do innych krajów z powodu konfliktu między Stanami Zjednoczonymi a Chinami. Chcą, aby Ci pracownicy przenieśli się do takich krajów jak USA, Irlandia, Australia lub Nowa Zelandia. Jest to związane z tym, że USA chce wprowadzić surowsze zasady dla Chin w zakresie rozwoju zaawansowanej sztucznej inteligencji.

Źródła:

Project Astra to odpowiedź Google'a na nowe ChatGPT

Podczas konferencji Google I/O Google zaprezentował „asystenta sztucznej inteligencji nowej generacji” o nazwie Project Astra, który potrafi „zrozumieć, co widzi kamera Twojego telefonu” - informuje Wired. Projekt Astra został ogłoszony po wcześniejszej premierze modelu GPT-4o od OpenAI. GPT-4o to SI która potrafi szybko odpowiadać na polecenia głosowe i rozmawiać o tym, co „widzi” za pośrednictwem aparatu smartfona lub na ekranie komputera.

Według informacji z serwisu Wired, Project Astra „korzysta również z bardziej ludzkiego głosu i emocjonalnie wyrazistego tonu, symulując emocje, takie jak zdziwienie czy nawet flirt”. Z raportu: „W odpowiedzi na komendy głosowe, Astra potrafiła zrozumieć obiekty i sceny widziane przez kamery urządzeń oraz rozmawiać na ich temat w naturalnym języku. Zidentyfikowała głośnik komputerowy i odpowiedziała na pytania dotyczące jego podzespołów, rozpoznała dzielnicę Londynu po widoku z okna biurowego, odczytała i przeanalizowała kod z ekranu komputera, napisała limeryk o ołówkach i przypomniała, gdzie ktoś zostawił okulary.

Google informuje, że Project Astra będzie dostępny za pośrednictwem nowego interfejsu o nazwie Gemini Live jeszcze w tym roku. Demis Hassabis, lider firmy odpowiedzialny za ponowne umocnienie pozycji w dziedzinie sztucznej inteligencji, powiedział, że firma nadal testuje kilka prototypowych inteligentnych okularów i nie podjęła jeszcze decyzji, czy wypuścić którekolwiek z nich na rynek. Hassabis uważa, że wzbogacenie modeli sztucznej inteligencji głębszym zrozumieniem świata fizycznego będzie kluczowe dla dalszego postępu w tej dziedzinie i zwiększenia odporności systemów, takich jak Project Astra.

Inne obszary sztucznej inteligencji, w tym praca Google DeepMind nad programami sztucznej inteligencji do gier, mogą pomóc, twierdzi. Hassabis i inni mają nadzieję, że tego typu prace mogą być rewolucyjne dla robotyki, dziedziny, w której Google również inwestuje. „Uniwersalny agent asystent wielomodalny zmierza w kierunku sztucznej inteligencji ogólnej” – powiedział Hassabis odnosząc się do przyszłego punktu, gdzie maszyny będą w stanie robić wszystko, co ludzki umysł. „To nie jest AGI ani nic takiego, ale to początek czegoś”.

ELI5: Google pokazał na konferencji nowego asystenta sztucznej inteligencji o nazwie Project Astra. Ten asystent potrafi rozumieć to, co widzi kamera Twojego telefonu i reagować na to, co słyszy za pomocą mikrofonu. Project Astra potrafi nawet "czuć" emocje i używać bardziej ludzkiego tonu w komunikacji.

Źródła: