Хотя случаи утечки данных при использовании нейросетей пока не получили достоверного подтверждения, легкомысленно относиться к этому риску нельзя. Об этом напомнил Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества.
По его словам, любые конфиденциальные сведения, которые загружаются в ChatGPT и другие ИИ-сервисы, потенциально могут быть использованы недобросовестно. Технологии развиваются стремительно, и то, что сегодня кажется защищённым, завтра может оказаться уязвимым.
"Нельзя передавать в нейросети персональные данные паспортную информацию, банковские реквизиты, медицинские документы, логины и пароли. Всё, что может привести к идентификации человека, потенциально представляет опасность", — подчеркнул Кузьменко.
Он рекомендует максимально обезличивать информацию при взаимодействии с ИИ и избегать вопросов, в которых содержится чувствительная информация. Если есть сомнения лучше решить задачу самостоятельно, без цифровых посредников.