NetBSD zakazuje używania kodu generowanego przez sztuczną inteligencję

Programiści NetBSD mają teraz zakaz korzystania z kodu generowanego przez sztuczną inteligencję z ChatGPT, CoPilot lub innych narzędzi AI. Czas pokaże, jak to wpłynie na użytkowników i zespół core.

"Jeśli wprowadzasz kod, który nie został napisany przez ciebie, sprawdź przepisy licencyjne dotyczące tego kodu, pozwolą one na importowanie go do repozytorium źródłowego NetBSD i bezpłatną dystrybucję," czytamy w zaktualizowanych wytycznych dotyczących commitów NetBSD. "Skonsultuj się z autorem lub autorami kodu, sprawdź, czy byli jedynymi autorami kodu i zweryfikuj, czy nie skopiowali żadnego innego kodu. Założenie jest takie, że kod wygenerowany przez duży model językowy lub podobną technologię, taką jak Copilot firmy GitHub/Microsoft, ChatGPT firmy OpenAI czy Code Llama firmy Facebook/Meta, jest skażonym kodem, i nie może być wprowadzany bez wcześniejszej pisemnej zgody rdzenia."

ELI5: NetBSD wprowadził nowe zasady, które zabraniają programistom korzystania z kodu generowanego przez sztuczną inteligencję, taką jak ChatGPT czy CoPilot. Mają ograniczyć ryzyko naruszenia praw autorskich i zabezpieczyć jakość kodu w projekcie. Programiści muszą teraz dokładniej sprawdzać pochodzenie kodu, zanim go dodadzą do NetBSD. To zmiana, która ma na celu chronić projekt i jego użytkowników.

Źródła: