'Openwashing'
The New York Times: *W świecie technologii toczy się ożywiona debata na temat tego, czy modele sztucznej inteligencji powinny być „open source”. Elon Musk, który pomógł założyć OpenAI w 2015 roku, pozwał startup i jego dyrektora zarządzającego, Sama Altmana, zarzucając firmie odstąpienie od jej misji otwartości. Administracja Bidena prowadzi dochodzenie w sprawie ryzyka i korzyści związanych z modelami open source. Zwolennicy modeli open source A.I. twierdzą, że są one bardziej sprawiedliwe i bezpieczniejsze dla społeczeństwa, podczas gdy przeciwnicy twierdzą, że są one bardziej podatne na nadużycia o szkodliwym zamiarze.
Jedna duża przeszkoda w debacie? Nie ma jednomyślnej definicji tego, co tak naprawdę oznacza open source A.I. I niektórzy oskarżają firmy A.I. o „openwashing” – używanie terminu „open source” w sposób nieuczciwy, aby wyglądać dobrze. (Oskarżenia o openwashing były wcześniej kierowane w stronę projektów, które zbyt swobodnie posługiwały się etykietą open source).
Na blogu Open Future, europejskiego think tanku wspierającego otwarte źródła, Alek Tarkowski napisał: „Jednym z wyzwań jest stworzenie wystarczającej ilości barier ochronnych przeciwko próbom firm w zakresie „openwashing””. W zeszłym miesiącu Linux Foundation, organizacja non-profit wspierająca projekty oprogramowania open-source, ostrzegła, że „trend „openwashing” zagraża samej zasadzie otwartości – swobodnemu dzieleniu się wiedzą w celu możliwości inspekcji, replikacji i zbiorowego postępu”. Organizacje, które nadają swoim modelom tę etykietę, mogą podejść do otwartości zupełnie inaczej.
Głównym powodem jest to, że podczas gdy oprogramowanie open source pozwala komukolwiek na replikację lub modyfikację, zbudowanie modelu A.I. wymaga znacznie więcej niż kodu. Tylko garstka firm jest w stanie sfinansować wymaganą moc obliczeniową i katalogowanie danych. Dlatego niektórzy eksperci twierdzą, że określanie dowolnego A.I. jako „open source” jest w najlepszym przypadku wprowadzające w błąd, a w najgorszym narzędziem marketingowym. „Nawet maksymalnie otwarte systemy A.I. nie pozwalają na otwarty dostęp do zasobów niezbędnych do „demokratyzacji” dostępu do A.I., ani nie umożliwiają pełnej kontroli” – powiedział David Gray Widder, doktorant w Cornell Tech, który badał wykorzystanie etykiety „open source” przez firmy A.I.
ELI5: W raporcie z The New York Times mówi się o tym, czy modele sztucznej inteligencji powinny być dostępne publicznie, czyli "open source". Ludzie mają różne zdania na ten temat. Czasami firmy nazywają swoje produkty "open source", żeby wyglądać lepiej. Jednak nie zawsze oznacza to, że każdy może z nich korzystać. Budowanie modeli A.I. wymaga dużo pracy i danych, więc nie zawsze są one dostępne dla wszystkich. Niektórzy uważają, że nazywanie ich "open source" jest mylące lub jest chwytem marketingowym.
Źródła:
- https://slashdot.org/story/24/03/01/1218218/elon-musk-sues-openai-and-sam-altman
- https://apnews.com/article/ai-executive-order-biden-opensource-models-1c42092e55729d731d246440094f7fed
- https://www.nytimes.com/2024/05/17/business/what-is-openwashing-ai.html
- https://news.slashdot.org/story/24/02/02/0448215/mark-zuckerberg-explains-why-meta-open-sources-its-ai
- https://news.slashdot.org/story/24/03/18/150246/grok-ai-goes-open-source
- https://openfuture.eu/blog/the-mirage-of-open-source-ai-analyzing-metas-llama-2-release-strategy/
- https://lfaidata.foundation/blog/2024/04/17/introducing-the-model-openness-framework-promoting-completeness-and-openness-for-reproducibility-transparency-and-usability-in-ai/