OpenAI пригласила клиентов использовать инструменты ChatGPT для контроля контента
OpenAI заявила, что её технология способна модерировать контент, что может помочь компаниям стать более эффективными. Это подчеркивает потенциальное применение инструментов искусственного интеллекта, которые пока еще не принесли огромных доходов многим компаниям.
Стартап сообщил, что его последняя технология, GPT-4, на которой работает ChatGPT, может использоваться для разработки правил относительно допустимого контента и быстрее принимать решения о публикациях. Компания тестировала эту технологию и пригласила клиентов также экспериментировать с ней. OpenAI утверждает, что её инструменты могут помочь бизнесу выполнить полгода работы всего за один или два дня.
Андреа Валлоне, работающая в OpenAI в отделе по вопросам политики, сказала, что стартап обнаружил, что GPT-4 эффективно справляется с модерацией, роль которой часто выполняется небольшими группами человеческих работников. Эта работа иногда может быть травматичной для людей, выполняющих ее. В то же время многие крупные компании, включая Meta Platforms Inc., уже используют искусственный интеллект для помощи в модерации наряду с сотрудниками. Использование технологии для интерпретации тонкостей человеческого письма может быть сложным, и OpenAI подчеркивает, что процесс не должен быть полностью автоматизирован.
Составление политик модерации контента и маркировка контента часто является длительной задачей. Инструменты OpenAI помогут уменьшить "разницу между потребностью и решением", сказала Валлоне.
В идеале сотрудники компании смогут использовать технологию, чтобы освободить себя для сосредоточения на более сложных решениях, связанных с наиболее крайними случаями возможных нарушений контента и корректировки политик, добавила она. "Мы продолжаем проводить проверку человеком, чтобы подтвердить некоторые суждения модели", - сказала она. "Я считаю, что важно всегда оставлять человека в этом процессе."