Google и OpenAI са готови да подкрепят Anthropic във съдебния процес по спора със Съединените щати относно конфликта с Pentagon.

Google и OpenAI са готови да подкрепят Anthropic във съдебния процес по спора със Съединените щати относно конфликта с Pentagon.

9 hardware

Кратко съдържание на делото за „непроверени“ доставчици

КаквоКлючови факти
Суть спораAnthropic подаде иск в федералния съд срещу Пентагона, изисквайки да я премахнат от списъка с „непроверени“ доставчици на ИИ.
УчастнициЗа компанията се застъпиха представители на OpenAI и Google – почти 40 служители (също така Джеф Дин, ръководителят на проекта Gemini). Те действат като частни лица, а не официални бизнес партньори.
ОбоснованиеДокументът, подаден в съд, твърди, че изключването на Anthropic е „замъглено акт на мести“, което вредно влияе върху обществените интереси.
Основни аргументиВъзможността за тотална наблюдателност над гражданите поставя демокрацията под заплаха. Пълно автономните оръжия изискват специален контрол.
Кой се представя в съда?Авторите на писмото са назовавани като учени, инженери и разработчици на американски ИИ системи. Те смятат, че имат компетентност да предупредят властите за рисковете от военна употреба на ИИ.
Важността на делотоПисмото не е насочено към конкретна компания, а към защитата на интересите на цялата индустрия: „Искаме властите да разбират потенциалните опасности“, казват експертите.
Текуща ситуация с данниСпоред тях данните за гражданите в САЩ са разпръснати и не се обединяват от ИИ анализ в реално време. Теоретично правителството би могло да събере досье на стотици милиони хора, като вземе предвид постоянните промени.
Опасности при военна употреба на ИИРазликата между условията за обучение на модели и реалната бойна обстановка може да доведе до грешки. ИИ не умее да оценява потенциалния допълващ щет, както човек. „Галюцинациите“ на моделите правят тяхното използване в оръжейни системи особено рисковано без човешка контрол.
Извод от експертитеВ момента сфери на приложение на ИИ, предложени от Пентагона, представляват сериозна заплаха. Необходимо е или техническо ограничение, или административен контрол.

Така Anthropic и нейните съюзници в OpenAI/Google се стремят не само да защитят своята репутация, но и да зададат рамки за безопасното развитие на ИИ-технологии в САЩ.

Коментари (0)

Споделете мнението си — моля, бъдете учтиви и по темата.

Все още няма коментари. Оставете коментар и споделете мнението си!

За да оставите коментар, моля, влезте в профила си.

Влезте, за да коментирате