Google ще въведе във виртуалния асистент Gemini функция за проследяване на психическото състояние

Google ще въведе във виртуалния асистент Gemini функция за проследяване на психическото състояние

9 hardware

Google засилва подкрепата за психичното здраве в чат‑бота Gemini

Компанията Google обяви планове да добави към своя нов AI чат‑бот Gemini функции, насочени към защита на потребителите от емоционални кризи и самоповреждания. Решението беше взето след като конкуренти, включително OpenAI, се сблъскаха със съдебни искания за предполагаеми вреди от техните ботове.

Какво ново в Gemini
Функция | Описание
Переадресация към горещата линия – при откриване на признаци на суицидални мисли или самоповреждания ботът автоматично предлага да се свърже с кризисна подкрепа.
Модул „Достъпна помощ“ – в разговорите за психично здраве се появява отделен раздел, където потребителят може да получи препоръки и ресурси за самопомощ.
Промени в дизайна – интерфейсът е адаптиран така, че да намали риска от провокация на самоповреждания (например са премахнати визуални стимули).

Защо Google прави това
- Съдебни претенции към конкуренти: OpenAI и други компании вече отговориха на обвинения за причиняване на вреда на потребителите.
- Рискове за потребителите: Последните години се наблюдава увеличение на случаи, в които хора развиват навязчиви отношения с AI ботове, което може да доведе до психопатология или дори убийства и самоумици.
- Наблюдения в САЩ: Конгресът изучава заплахите, които чат‑ботовете могат да представляват за деца и тинейджъри.

Пример на съдебно дело
В март семейството на убития 36‑годишен американец подаде иск срещу Google. Те твърдеха, че взаимодействието на мъжкото с Gemini е било „четиридневна потапка в насилствени действия“ и довело до самоубийство. Google заяви, че ботът многократно препращал потребителя към кризисната линия, но се ангажира да засили мерките за сигурност.

Как Google реагира на лъжливата информация
Някои потребители съобщиха, че чат‑ботовете дават неверна информация и насърчават опасни действия. В отговор Google обучи Gemini:

- Да не подкрепя лъжа: Ботът отказва да потвърждава грешни твърдения.
- Да подчертава разликата между субективния опит и обективните факти: При нужда ботът леко указва на непровереността на информацията.

Така Google се стреми да направи Gemini по‑безопасен инструмент, като защитава психичното здраве на потребителите от потенциални рискове, свързани с AI чат‑ботовете.

Коментари (0)

Споделете мнението си — моля, бъдете учтиви и по темата.

Все още няма коментари. Оставете коментар и споделете мнението си!

За да оставите коментар, моля, влезте в профила си.

Влезте, за да коментирате