Боты-психотерапевты могут похищать личные данные
C точки зрения информационной безопасности, существует две основные опасности, которые создает общение с ботом на личные темы. Во-первых, это потенциальная утечка информации – такие инциденты уже случались. Во-вторых, любые данные, которыми человек делится с популярным ботом, хранятся на серверах его разработчика. Они могут воспользоваться ими в соответствии с политикой компании, например, для обучения нейросетей.
Если же человек пользуется неофициальным клиентом чат-бота, то он может столкнуться с онлайн-мошенничеством. Также известные случаи, когда хакеры похищали аккаунты от сервисов с чат-ботами для того, чтобы потом продать их на теневых площадках.
По этой причине при общении с искусственным интеллектом (ИИ) по чувствительным вопросам – медицине, финансам, юриспруденции и т.д. – нужно быть крайне осторожным: правильно интерпретировать их ответы и всегда консультироваться со специалистом. В частности, это касается психологических тем, в которых технология пока не способа учитывать индивидуальные нюансы психики человека и может даже навредить. Также в аккаунтах таких сервисов необходимо использовать двухфакторную аутентификацию и надежные пароли.
Чат-боты являются полезным дополнением для тех, кто нуждается в краткосрочной поддержке или совете между сеансами с реальным специалистом. К примеру, при когнитивно-поведенческой терапии, представляющей каждодневную работу над собой, ИИ-трекер мог бы напоминать о заданиях или контролировать выполнение практик. Также они делают психотерапевтическую помощь более доступной, в особенности для жителей удаленных регионов или людей с ограниченными возможностями.
Вопрос безопасности чат-ботов встает не первый раз. Ранее на Amazon можно было найти книги с правилами сбора грибов, написанные ChatGPT. Одну из них купила семья из Великобритании и, последовав советам, оказалась в больнице.
Руководитель департамента расследований T.Hunter, эксперт рынка НТИ SafeNet Игорь Бедеров рассказывал “РГ”, что работа нейросети – это результат ее общения с огромным числом пользователей, а потому она обладает большим объемом разрозненной и непроверенной информации.
“На данный момент нам предстоит научиться либо самим отделять достоверный текст от недостоверного, основываясь на своем жизненном опыте, либо мы придем к разметке контента, созданного с помощью ИИ и без него”, – отметил он.
Читать статью в полной версии «RG.ru»