Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
OpenAI признала, что существующие инструменты для обнаружения текстов, созданных ИИ, неэффективны и часто дают ложные срабатывания. В обновлённом разделе с часто задаваемыми вопросами (FAQ) компания подчёркивает, что даже сам ChatGPT не способен точно определить, создан текст человеком или машиной. Эксперты призывают отказаться от автоматизированных инструментов обнаружения ИИ и полагаться на человеческий опыт и интуицию.
На своём сайте в разделе FAQ под заголовком «Как преподаватели могут реагировать на то, что студенты выдают работы, созданные ИИ, за свой собственные?» компания рассказывает о том, работают ли детекторы ИИ: «Коротко говоря — нет. Несмотря на то, что некоторые компании (включая OpenAI) выпустили инструменты, предназначенные для обнаружения контента, созданного ИИ, ни один из них не смог достоверно отличить контент, созданный ИИ, от контента, созданного человеком».
Такие детекторы ИИ, как, например, GPTZero, часто дают ложные срабатывания из-за того, что в их основе лежат непроверенные методы детекции. В конечном счёте, нет ничего особенного в текстах, созданных ИИ, что всегда отличало бы их от текстов, написанных человеком. К тому же детекторы можно обойти, перефразировав текст. В июле OpenAI прекратила поддержку своего экспериментального инструмента AI Text Classifier с печальным показателем точности 26 %.
Компания также разрушает другой миф, что ChatGPT может определить, создан текст машиной или нет: «К тому же, у ChatGPT нет „понимания“, какой контент может быть создан ИИ. Он иногда выдумывает ответы на вопросы вроде „ты написал это [эссе]?“ или „это могло быть написано ИИ?“. Эти ответы случайны и не имеют под собой никаких оснований».
OpenAI также говорит о склонности своих ИИ-моделей сообщать ложную информацию: «Иногда ChatGPT звучит убедительно, но может дать неверную или вводящую в заблуждение информацию (часто называемую „галлюцинацией“). Он даже может выдумывать вещи вроде цитат или ссылок, поэтому не используйте его как единственный источник для исследований». Так, например, в мае нью-йоркскому адвокату, который воспользовался ChatGPT и получил в ответ вымышленные факты, грозила потеря лицензии.
Несмотря на то, что детекторы ИИ не работают, это не значит, что человек никогда не сможет обнаружить текст, созданный ИИ. Например, преподаватель, знакомый с письменным стилем ученика, может заметить, когда его стиль или уровень знаний внезапно меняются.
К тому же, некоторые неаккуратные попытки выдать текст, созданный ИИ, за свой собственный, могут иметь характерные признаки, такие как фраза «как модель языка ИИ», что указывает на то, что человек просто скопировал и вставил ответ, полученный от ChatGPT, даже не прочитав его. Недавно в научном журнале Nature была опубликована статья о том, как в одной научной статье читатели обратили внимание на фразу «Regenerate response» (сгенерировать новый ответ), которая является элементом интерфейса ChatGPT.
На текущем этапе технологического развития безопаснее всего избегать полностью автоматизированных инструментов для определения текстов, созданных с помощью ИИ. Это подтверждает и мнение Этана Моллика (Ethan Mollick), профессора из бизнес-школы Уортона (Wharton School of the University of Pennsylvania) и аналитика в области ИИ. Он подчёркивает, что на данный момент детекторы ИИ имеют высокий уровень ложных срабатываний, и ими пользоваться не следует.
Таким образом, вопрос об отличии машинного текста от человеческого остаётся открытым, а ответ на него, возможно, лежит в области интуитивного понимания и профессионального опыта каждого отдельного человека.
Источник: