OpenAI rozważa zezwolenie użytkownikom na tworzenie pornografii generowanej przez AI

OpenAI, firma odpowiedzialna za ChatGPT, analizuje czy użytkownikom powinno się pozwolić na tworzenie pornografii generowanej przez sztuczną inteligencję oraz inne, podobne treści za pomocą swoich produktów.

Mimo że firma podkreśliła, że zakaz dotyczący deepfake'ów będzie nadal obowiązywał dla materiałów dla dorosłych, obrońcy sugerowali, że propozycja podważa jej misję polegającą na produkcji „bezpiecznej i korzystnej” sztucznej inteligencji. OpenAI, która jest także twórcą generatora obrazów DALL-E, ujawniła, że rozważa umożliwienie deweloperom i użytkownikom „odpowiedzialne” tworzenie treści oznaczonych jako nieodpowiednie (NSFW) za pomocą swoich produktów. OpenAI powiedziała, że może to obejmować „erotykę, ekstremalne okrucieństwo, wyzwiska i nieproszone przekleństwa."

„Bierzemy pod uwagę, czy możemy odpowiedzialnie udostępnić możliwość generowania treści NSFW w odpowiednich dla wieku kontekstach. Z niecierpliwością czekamy na lepsze zrozumienie oczekiwań użytkowników i społeczeństwa w zakresie zachowania modelu w tym obszarze.”

Propozycja została opublikowana jako część dokumentu OpenAI omawiającego rozwój narzędzi AI. Joanne Jang, pracownik firmy z siedzibą w San Francisco, która pracowała nad dokumentem, powiedziała amerykańskiej stacji NPR, że OpenAI chciała rozpocząć dyskusję na temat tego, czy generowanie erotycznego tekstu i nagości powinno zawsze być zakazane w jej produktach. Niemniej jednak podkreśliła, że deepfake'i nie będą dozwolone.

ELI5: OpenAI, firma za ChatGPT, zastanawia się, czy pozwolić użytkownikom tworzyć nieodpowiednie treści, takie jak erotyka czy ekstremalne okrucieństwo, za pomocą swoich produktów. Chociaż zakazuje tworzenia deepfake'ów, rozważa umożliwienie generowania takich treści, ale tylko w odpowiednich kontekstach i odpowiedzialnie.

Źródła:

Czy OpenAI, Google i Meta "pośpieszyły się" zbierając dane treningowe dla sztucznej inteligencji?

Co się stało, kiedy OpenAI wyczerpało dostęp do angielskojęzycznych danych treningowych w 2021 roku? Stworzyli narzędzie do rozpoznawania mowy, które mogło przepisywać dźwięk z filmów na YouTube, informuje New York Times, jako część dochodzenia, twierdząc, że firmy technologiczne "w tym OpenAI, Google i Meta przyśpieszyły, ignorując firmowe polityki i rozważały łamanie prawa" w poszukiwaniu danych treningowych dla sztucznej inteligencji.

Niektórzy pracownicy OpenAI mówili, że taki ruch może iść pod prąd z zasadami YouTube. YouTube, należący do Google, zabrania wykorzystywania swoich filmów do aplikacji „niezależnych” od platformy wideo. Ostatecznie zespół OpenAI przepisał ponad 1 milion godzin filmów z YouTube, powiedzieli informatorzy. W skład zespołu wchodził Greg Brockman, prezydent OpenAI, który osobiście pomagał w zbieraniu filmów. Teksty zostały następnie wprowadzone do systemu o nazwie GPT-4...

W Meta, właścicielu Facebooka i Instagrama, kierownicy, prawnicy i inżynierowie w zeszłym roku rozmawiali o kupnie wydawnictwa Simon & Schuster, aby pozyskać długie utwory, jak wynika z nagrań wewnętrznych spotkań uzyskanych przez Timesa. Rozmawiali również o zbieraniu chronionych prawami autorskimi danych z internetu, nawet jeśli wiązałoby się to z pozwami sądowymi. Negocjacje z wydawcami, artystami, muzykami i branżą wiadomości trwałyby zbyt długo, twierdzili.

Podobnie jak OpenAI, Google przepisywał filmy z YouTube, aby pozyskać tekst dla swoich modeli sztucznej inteligencji, powiedziało pięć osób znających praktyki firmy. To potencjalnie naruszało prawa autorskie do filmów, które należą do ich twórców. W zeszłym roku Google również rozszerzył swoje warunki świadczenia usług. Jedną z motywacji zmiany, według członków zespołu ds. prywatności firmy i wiadomości wewnętrznej, do której dotarł Times, było umożliwienie Google’owi korzystania z publicznie dostępnych Google Docs, recenzji restauracji na Google Maps i innych materiałów online dla większej liczby swoich produktów z wykorzystaniem sztucznej inteligencji.

Niektórzy pracownicy Google'a byli świadomi, że OpenAI pozyskało filmy z YouTube dla danych. Ale nie przeszkodzili OpenAI, ponieważ Google również używał transkryptów filmów z YouTube do treningu swoich modeli sztucznej inteligencji. Takie praktyki mogły naruszać prawa autorskie twórców filmów na YouTube. Więc jeśli Google zrobiłby hałas w sprawie OpenAI, mogłoby się to wiązać z publicznym oburzeniem przeciwko jego własnym metodom. Artykuł dodaje, że niektóre firmy technologiczne teraz nawet rozwijają „syntetyczne” informacje, aby trenować sztuczną inteligencję.

„To nie są organiczne dane tworzone przez ludzi, ale tekst, obrazy i kod, które modele sztucznej inteligencji produkują - innymi słowy, systemy uczą się na podstawie tego, co same generują.”

ELI5: OpenAI, Google i Meta próbowały pozyskać dane do trenowania sztucznej inteligencji m.in. przez przepisywanie dźwięku z filmów na YouTube. Robiły to pomimo ryzyka łamania prawa i polityk firm, takich jak YouTube, który zabrania wykorzystywania swoich filmów w taki sposób. Firmy te również rozmawiały o innych kontrowersyjnych metodach pozyskiwania danych, takich jak kupno wydawnictw czy zbieranie informacji chronionych prawami autorskimi z internetu. Te działania wywołały dyskusje o naruszeniach praw autorskich i zapoczątkowały rozwój "syntetycznych" danych do trenowania sztucznej inteligencji.

Źródła:

Stack Overflow karmi sztuczną inteligencję odpowiedziami programistów, czy im się to podoba czy nie

Nowa umowa Stack Overflow, która udostępnia OpenAI dostęp do swojego interfejsu API jako źródła danych, wywołała oburzenie użytkowników, którzy umieścili swoje pytania i odpowiedzi dotyczące problemów z programowaniem w rozmowach z innymi ludźmi.

Użytkownicy twierdzą, że gdy próbują zmienić swoje wpisy w proteście, serwis cofa zmiany i zawiesza użytkowników, którzy je wprowadzili. Programista o imieniu Ben opublikował wczoraj zrzut ekranu historii zmian dotyczącej posta poszukującego porady programistycznej, który zaktualizował informując, że usunął pytanie w proteście przeciw umowie z OpenAI.

„To posunięcie kradnie pracę wszystkich, którzy przyczynili się do Stack Overflow, bez możliwości rezygnacji” - czytamy w zaktualizowanym poście. Tekst został cofnięty mniej niż godzinę później. Wiadomość moderatora włączona do posta Bena mówi, że posty na Stack Overflow stają się „częścią wspólnego wysiłku” innych współtwórców po opublikowaniu i mogą zostać usunięte „tylko w wyjątkowych okolicznościach”. Zespół moderacji poinformował następnie, że zawiesi konto Bena na tydzień, podczas gdy będzie próbować nawiązać kontakt, „aby uniknąć dalszych nieporozumień”.

ELI5: Stack Overflow to strona internetowa, na której ludzie pytają o problemy z programowaniem i udzielają sobie wzajemnie pomocy. Stack Overflow udostępni teraz posty OpenAI. Część użytkowników jest przeciwna, w proteście próbują usuwać swoje wpisy za co są zawieszani. Według SO skasowanie wpisu może nastąpić tylko w specjalnych sytuacjach.

Źródła:

OpenAI i Stack Overflow nawiązują partnerstwo w celu wprowadzenia większej wiedzy technicznej do ChatGPT

OpenAI i platforma dla programistów Stack Overflow ogłosiły partnerstwo, które potencjalnie może poprawić wydajność modeli AI i wprowadzić więcej informacji technicznych do ChatGPT.

Z raportu: OpenAI będzie miało dostęp do API Stack Overflow i otrzyma opinie społeczności programistów, aby poprawić wydajność modeli AI. Z kolei OpenAI będzie linkować do treści Stack Overflow - w ChatGPT. Użytkownicy chatbota zobaczą więcej informacji z archiwum wiedzy Stack Overflow, jeśli zapytają ChatGPT o kodowanie lub techniczne pytania. Stack Overflow będzie korzystać z dużych modeli językowych OpenAI, aby rozwijać Overflow AI, aplikację generatywną zapowiedzianą w zeszłym roku.

ELI5: OpenAI i Stack Overflow połączyły siły, aby pomóc ChatGPT w udzielaniu lepszych odpowiedzi na pytania techniczne. Dodatkowo, Stack Overflow będzie tworzyć aplikację bazującą na dużych modelach językowych OpenAI.

Źródła:

Microsoft przygotowuje nowy model AI, aby konkurować z Google i OpenAI

Po raz pierwszy od czasu zainwestowania ponad 10 miliardów dolarów w OpenAI w zamian za prawa do ponownego wykorzystania modeli AI, Microsoft szkoli nowy, wewnętrzny model AI na tyle duży, aby konkurować ze state-of-the-art modelami od Google, Anthropic i samego OpenAI.

Nowy model, wewnętrznie nazywany MAI-1, jest nadzorowany przez Mustafę Suleymana, byłego lidera AI w Google, który niedawno pełnił funkcję dyrektora generalnego start-upu Inflection, zanim Microsoft zatrudnił większość pracowników tego start-upu i zapłacił 650 milionów dolarów za prawa do jego własności intelektualnej w marcu. To jednak model Microsoftu, nie przeniesiony z Inflection, chociaż może opierać się na danych treningowych i innych technologiach tego start-upu.

MAI-1 będzie znacznie większy niż jakiekolwiek mniejsze, otwarte modele, które wcześniej trenował Microsoft, co oznacza, że będzie wymagał większej mocy obliczeniowej i danych treningowych, a więc będzie bardziej kosztowny, zgodnie z informacjami. MAI-1 będzie mieć około 500 miliardów parametrów, czyli ustawień, które można dostosować, aby określić, jak modele uczą się podczas treningu. W porównaniu z GPT-4 OpenAI, który ma ponad 1 bilion parametrów, a mniejsze otwarte modele wydane przez firmy takie jak Meta Platforms i Mistral mają 70 miliardów parametrów. Oznacza to, że Microsoft teraz podąża w pewnym sensie podwójną ścieżką w AI, mając na celu rozwijanie zarówno „małych modeli językowych”, które są tanie w implementacji do aplikacji i mogą działać na urządzeniach mobilnych, jak i większych, state-of-the-art modeli AI.*

ELI5: Microsoft zainwestował dużo pieniędzy w OpenAI i teraz tworzy swój własny model AI, nazwany MAI-1, który będzie dużym modelem zdolnym konkurować z innymi zaawansowanymi modelami. Pracuje nad nim Mustafa Suleyman, który wcześniej pracował w Google i Inflection. MAI-1 będzie bardzo duży, z około 500 miliardami parametrów, i będzie kosztowny w utrzymaniu ze względu na potrzebną moc obliczeniową i dane treningowe. Jest to krok Microsoftu w kierunku rozwoju zaawansowanych modeli AI, przy jednoczesnym kontynuowaniu prac nad mniejszymi modelami dostosowanymi do urządzeń mobilnych.

Źródła: