Копилот преглежда лични писма на потребителите, като заобикаля защита – Microsoft признаде това като грешка.
Майкрософт открити грешка в Copilot, която обобщава поверителни писма
Според служебно уведомление на компанията, грешката в Microsoft 365 Copilot започнала от края на януари да довежда до това, че ИИ‑асистентът автоматично сумарира съдържанието на електронните писма на потребителите. При това се обходят политики за предотвратяване на загуба на данни (DLP), които организациите използват за защита на чувствителна информация.
Какво точно е отнело грешка
* Баг номер CW1226326 бил фиксиран 21 януари и засегнал функцията чат в работната разделка Copilot.
* В резултат алгоритъмът некоректно чете писма, намиращи се в папките „Изпратени“ и „Чернови“, включително съобщения маркирани като поверителни (те специално ограничават достъпа на автоматизирани инструменти).
* Съобщението на Microsoft гласи: *«Писма от потребители с маркер „поверително“ се обработват некоректно от Microsoft 365 Copilot Chat».* То също подчертава, че ИИ обобщава писма дори при наличие на маркера поверителност или политика DLP.
Как реагира Майкрософт
* По-късно компанията потвърди, че причината е грешка в кода и започна работа по патча в началото на февруари.
* Към средата на текущата седмица Microsoft съобщи, че продължава да следи разгръщането на поправката и се свързва с потребителите, засегнати от проблема, за да оцени качеството на обновлението.
Какво още не е известно
Майкрософт все още не уточни сроковете за пълното отстраняване на грешката и не разкрие броя на потребители или организации, които са пострадали. В доклада се отбелязва, че с напредването на разследването мащабът на проблема може да се промени.
Коментари (0)
Споделете мнението си — моля, бъдете учтиви и по темата.
Влезте, за да коментирате