Это написал человек или искусственный интеллект?
Основной способ общения ИИ с человеком — это текст и его голосовое озвучивание. Аналитики отмечают, что использование ИИ в написании текстов само по себе не является негативным. Последние данные показывают, что человек может точно идентифицировать авторов и продукт ИИ только примерно в 50% случаев. В этой статье расскажем о некоторых способах идентификации текста, написанного искусственным интеллектом.
Задать вопрос «ловушку»
При обучении ИИ на определенных данных, он осваивает основополагающие закономерности и структуры этих данных. Первая ловушка для ИИ — это объем проанализированных миллиардов веб-страниц и информации до сентября 2021 года (ChatGPT) и события, информация после сентября 2021 года (версия GPT-4). Если человек задаст ИИ открытый вопрос «ловушку» о событии, которое произошло в 2024 году, то при общении с нейросетью может получить странный ответ «по настоящее время моя база обновляется, поэтому к сожалению данных нет» или ИИ напишет известные ему более старые сведения с ошибками в фактах.
Грамматические ошибки и странные конструкции
Машинное письмо обладает специфическими особенностями, которые отличают его от человеческого. Поэтому второй способ основывается на анализе стилистики текста. Например, искусственный интеллект может проявлять большую последовательность в использовании определенных слов и фраз по сравнению с человеком, а также может демонстрировать определенные структурные особенности.
В группах людей, взаимодействующих с ИИ, экспериментально установлено, что высокая грамматическая правильность и использование местоимений первого лица часто ошибочно приписывались тексту, созданному человеком. Ссылки на семейную жизнь и использование неформального разговорного языка также были ошибочно отнесены к тексту, созданному человеком.
Стоит обратить внимание на конструкции слов, не свойственные человеку. Когда хочется сказать: «так же не говорят» – это вполне может быть признаком использования алгоритмов ИИ
Обращает на себя внимание также тенденция повторять одни и те же фразы в тексте «как по шаблону», смешение литературного стиля до максимально официального, «как смысловые метаморфозы». Суждения могут быть очень поверхностными, без личного опыта и примеров, «без глубины мысли».
Отличительные черты работы ИИ: пунктуации, орфографии и структура предложений.
Одна из новых идей, предложенная учеными — придать искусственному интеллекту узнаваемый акцент. Гипотеза построена на том, что человек в путешествии из точки А в точку Б идентифицирует людей по речи, интонации, особенностям произношения, постановке ударений в словах и т.д.
Дипфейки
Представьте себе, что вы просматриваете два профиля в социальных сетях, которые привлекают ваше внимание. Фотографии подлинные и привлекательные для вас, а описанные интересы соответствуют вашим собственным. Многие из нас, вероятно, сталкивались с чем-то подобным, что потом оказывалось дипфейком.
Дипфейк — это алгоритм, с помощью которого можно «оживить» любого человека, заставив его говорить и делать то, чего на самом деле не было.
Дипфейки бывают разные, например с подменой лица (face swap) — когда лицо одного человека «накладывается» на лицо другого в видео; путем синтеза «поддельной речи» на основе голоса реального человека (synthetic speech) и (или) полностью сгенерированное видео с подменным лицом и с синтезированной речью.
Во всех приведенных примерах могут быть найдены артефакты - это неумышленные графические и голосовые подсказки искусственности: размытие очертаний лица, «лишние» уши, носы, глаза и руки, искажение улыбки и взгляд, голосовая «заминка» и прочее.
Отличить ИИ от человека помогает Тест Тьюринга. Этому способу более 70 лет и некоторые считают его устаревшим.
В этой игре смысловых вопросов и ответов участвуют три игрока, в которых один игрок — это компьютер, другой игрок — человек-ответчик, а третий игрок — человек-дознаватель, который изолирован от двух других игроков. Во время теста человек разговаривает с компьютером и должен определить, кто ведёт беседу — машина или человек.
Тест Тьюринга — эмпирический тест, предложенный Аланом Тьюрингом в 1950 году. Интерпретация теста звучит так: если машина отвечает на заданные вопросы так, что человек не в состоянии определить, общается он с другим человеком или с компьютером, тест считается пройденным
По разным данным на сегодняшний день ни одна программа ИИ не приблизилась к прохождению теста Тьюринга в чистом виде.
Весь контент, созданный ИИ, должен быть специально промаркирован
В сети имеются сведения о скором появлении версии GPT-5 под названием сильный ИИ (Artificial General Intelligence, AGI), который способен революционизировать наш мир. Эксперты опасаются, что с AGI может начаться новая эра дезинформации, когда соцсети наводнят убедительные нейросетевые боты, распространяющие ложную информацию.
С учетом того, что ИИ может создавать видеоизображения, генерировать тексты, поддерживать разговор, говорить человеческим языком, в будущем очень часто люди будут встречаться с дипфейками.
С каждым годом ИИ становится все более совершенным в своем способности создавать тексты, что может усложнить задачу идентификации авторства.
В конце 2022 года правительство Китая запретило использование сгенерированных искусственным интеллектом цифровых продуктов «глубокого синтеза» (текста, изображений, голоса) без специальных водяных знаков. Все, кто захотят их произвести с помощью алгоритмов ИИ, сначала должны получить разрешение от правительства, а затем привязать свои персональные данные к используемому аккаунту.
Сильный ИИ сможет создать самообучающееся ПО, способное обходить любые методы защиты данных, что создает риски киберпреступности.
В настоящее время в Российской Федерации разрабатывается проект единого специального реестра платформа «Гостех», где будут собраны прошедшие проверку технологии ИИ.
Федеральный проект по развитию ИИ был утвержден в 2020 году, его активная реализация началась в 2021 году. Ранее он входил в национальную программу «Цифровая экономика» и был рассчитан до 2024 года, но было приянто решение о его включении в национальный проект по формированию экономики данных. Таким образом, он будет продлен до 2030 года.
Использованные материалы:
https://hai.stanford.edu/news/was-written-human-or-ai-tsu