Майкрософт предлага решение за спиране на разпространението на дипфейкове в интернет

Майкрософт предлага решение за спиране на разпространението на дипфейкове в интернет

7 hardware

Microsoft стартира нов набор от стандарти за проверка на автентичността на онлайн съдържание

Microsoft обяви създаването на „технически стандарти“ за оценка на реалността на материалите, които се появяват в мрежата. Целта е да помогне на разработчиците на ИИ и социалните платформи да определят дали изображенията или видеоклиповете са били променени с цифрови инструменти (например дипфейкове) и колко надеждни са методите за тяхната документирация.

Как работи системата за проверка
* Пример със картината на Рембранд
- Създава се подробен лог на произхода: места на съхранение, предишни собственици.
- Картината се сканира и от мазките на четката генерира се математическа подпись – „цифров отпечатък на пръст“.
- При изложба в музея посетителят може да отвори тези данни и да потвърди оригиналността.

* Методи вече се прилагат
Microsoft проучи 60 комбинации от съществуващи техники (изтриване на метаданни, малки промени, целенасочена манипулация). За всяка модел е симулирано поведение в различни сценарии.

Изследователите установиха:
- Надеждни комбинации – могат да се покажат на широка аудитория.
- Недостоверни комбинации – могат само да усложнят ситуацията, създавайки повече объркване.

Защо това е важно
* Законодателството изисква прозрачност на ИИ (например „Закон за прозрачността на ИИ“ в Калифорния).
* Microsoft все още не обяви дали ще приложи тези стандарти в своите услуги: Copilot, Azure, OpenAI и LinkedIn.

Стандартите не определят истинността на съдържанието; те просто показват дали материалът е бил манипулиран и откъде идва. Ако индустрията ги приеме, създаването на измамно съдържание ще стане значително по-трудно.

Състояние на индустрията
КомпанияДействиеСтатусMicrosoftC2PA (2021) – проследяване на произхода Ведено развитие на нови средстваGoogleВодни знаци за ИИ‑генерирано съдържание (от 2023) Активно внедряване
Но пълният набор от инструменти от Microsoft може да остане само „проект“, ако участниците в пазара видят заплаха за своите бизнес модели.

Ефективност на съществуващите решения
* Изследването показва, че само 30 % публикации в Instagram, LinkedIn, Pinterest, TikTok и YouTube са правилно маркирани като генерирани от ИИ.
* Бързото внедряване на проверителни средства е рисковано: неизправности могат да подкопаят доверието на потребителите.

Комплексните механизми за проверка са предпочитани. Например, ако над достоверно изображение се извърши малко редактиране от ИИ, платформата може погрешно да го класифицира като напълно генерирано. Интегриран подход намалява вероятността за лъжа-положителни резултати.

Резултат
Microsoft предлага структуриран набор от стандарти за откриване на цифрова манипулация на съдържание. Тези инструменти са предназначени да повишат прозрачността и доверието към онлайн материалите, но успехът им зависи от приемането от индустрията и надеждността на интегрираните проверки.

Коментари (0)

Споделете мнението си — моля, бъдете учтиви и по темата.

Все още няма коментари. Оставете коментар и споделете мнението си!

За да оставите коментар, моля, влезте в профила си.

Влезте, за да коментирате