Представьте себе искусственный интеллект, обученный на массиве электронных писем, принадлежавших Джеффри Эпштейну. Звучит как сюжет для триллера, не так ли? Именно это и произошло, и результаты оказались, мягко говоря, неожиданными.
Разработчик, имя которого не разглашается, взял общедоступную базу данных электронных писем Эпштейна и использовал ее для тонкой настройки большой языковой модели. Цель эксперимента оставалась неясной, но выходные данные ИИ оказались весьма провокационными.
Когда журналисты попытались взаимодействовать с ИИ, он ответил антисемитскими высказываниями и предложил посетить вечеринку, намекая на скандальные события, связанные с Эпштейном. Эти ответы вызвали волну возмущения и вопросов об этичности использования подобных данных для обучения искусственного интеллекта.
Этот случай поднимает важные вопросы о потенциальных рисках и последствиях обучения ИИ на спорных и даже незаконных материалах. Как мы можем гарантировать, что ИИ не будет воспроизводить предрассудки и вредоносные идеи, содержащиеся в данных, на которых он был обучен? Это вызов, с которым нам предстоит столкнуться по мере развития технологий искусственного интеллекта.
Источник: Decrypt
