Jak powrót Trumpa zmienia wytyczne Apple dotyczące sztucznej inteligencji przed premierą w 2026 r

Kiedy Tim Cook uczestniczył w inauguracji Donalda Trumpa na początku tego roku, wydawało się, że jest to kolejny symboliczny moment korporacyjnej dyplomacji. Dwa miesiące później setki wykonawców w Barcelonie pracujących po cichu nad modelem sztucznej inteligencji Apple zauważyło, że ich podręczniki szkoleniowe wyglądają inaczej. Strony, które kiedyś w dosadny sposób opisywały nietolerancję i systemowy rasizm, zostały przeformułowane. Różnorodność i równość nie są już opisywane jako podstawowe wartości, ale jako obszar kontrowersyjny.

Apple upiera się, że nic się nie zmieniło i że zasady odpowiedzialnej sztucznej inteligencji pozostają niezmienione. Jednak moment wprowadzenia rewizji – przypadający zaraz po powrocie Trumpa do Białego Domu – rodzi pytania o to, jak bardzo pogoda polityczna wpływa na sposób, w jaki wielka technologia kształtuje swoje modele. Komentatorzy oceniający niewydanego chatbota Apple muszą teraz traktować wybory, szczepionki i inicjatywy DEI jako bardziej drażliwe tematy, obok dobrze znanych punktów zapalnych, takich jak kontrola broni, terytoria sporne itp. Nawet nazwisko Trumpa, które pojawiło się tylko kilka razy w zeszłorocznych wytycznych, pojawia się znacznie częściej w najnowszej wersji.

Ta zmiana mówi nam mniej o konkretnych odpowiedziach, jakich udziela sztuczna inteligencja Apple, a więcej o niewidzialnym rusztowaniu za nimi. Wykonawcy proszeni są o ocenę odpowiedzi nie tylko pod kątem dokładności, ale także tego, jak dobrze chronią markę Apple i unikają zaogniania polityki. Obejmuje to dokładne sprawdzanie wszelkich wzmianek o Timie Cooku, Craigu Federighim, Eddym Cue, a nawet Steve’ie Jobsie. Samo Apple stało się tematem „delikatnym”, do którego należy podchodzić ostrożnie w jego własnym podręczniku szkoleniowym.

Więcej czytania:Apple aktualizuje wytyczne dotyczące recenzji App Store dla programistów iOS i iPadOS

Ta praca odbywa się niemal anonimowo. Kontrahentom nie mówi się, że pracują dla Apple, choć w dokumentach pojawia się dziesiątki wzmianek o tej firmie. Spędzają dni na ocenie około trzydziestu podpowiedzi, sygnalizując, czy chatbot popada w dyskryminację, ujawnia treści chronione prawem autorskim lub natrafia na kontrowersyjny temat. W biurze obowiązuje zakaz używania telefonów. Zabrania się rozmawiania o projekcie poza pracą. To dziwna mieszanka tajemnicy i powtarzalności, którą niektórzy pracownicy porównują do życia w odcinku własnego programu Apple Severance.

Jednocześnie wytyczne ujawniają, że Apple próbuje zabezpieczyć swój system na przyszłość przed szerszymi obawami. Nowe sekcje wytycznych ostrzegają przed „ryzykiem długotrwałym”, począwszy od emocjonalnego przywiązania użytkowników do sztucznej inteligencji, poprzez tanie rozprzestrzenianie się dezinformacji na dużą skalę, po znikanie stanowisk pracy w wyniku automatyzacji. Żadne z tych zagrożeń nie ma w dokumentach jasnych rozwiązań, a jedynie potwierdzenie ich istnienia.

Apple twierdzi, że jego zasady się nie zmieniły i że jego modele są regularnie aktualizowane o ustrukturyzowane tematy oceny, aby uczynić je bezpieczniejszymi. Mimo to zmiany odzwierciedlają napięcie związane z budowaniem chatbota konsumenckiego na rok 2026 w świecie, w którym polityka, reżimy cenzury i wizerunek korporacji są w równym stopniu częścią danych szkoleniowych, jak fakty i liczby. To, co sztuczna inteligencja ostatecznie powie, będzie mniej ważne niż to, o czym już kazano jej milczeć.

(przezPolityczny)