Запрет на советы: ChatGPT больше не консультирует по закону, здоровью и деньгам

cover Фото: Elements.envato.com

OpenAI изменила правила после ряда судебных скандалов, сообщает Orda.kz.

Теперь пользователи не смогут обращаться к чат-боту за советами по трудоустройству, миграции, страхованию, образованию, вопросам жилья, финансам и даже вопросам национальной безопасности. OpenAI подчёркивает: подобные рекомендации могут давать только лицензированные специалисты.

«Вы не можете использовать наши сервисы для предоставления специализированных консультаций, требующих лицензии, таких как юридические или медицинские консультации»,заявили в компании.

Также ChatGPT больше не отвечает на вопросы о госуслугах, безопасности продуктов и применении ИИ в критически важных сферах. Под запретом — автоматизация решений без участия человека в чувствительных областях вроде медицины, кредитования и исполнения законов.

Кроме того, OpenAI ввела жёсткие ограничения на генерацию опасного и оскорбительного контента. Сервис запретили использовать для пропаганды насилия, терроризма, азартных игр, угроз и клеветы. Под полный запрет попали ролики с сексуальным насилием, а также создание или использование изображений и голосов людей без их согласия. Компания подчёркивает: любое нарушение этих правил может привести к блокировке.

«Мы требуем от пользователей надлежащего использования наших сервисов. Нарушение правил может повлечь потерю доступа или другие меры наказания»,предупредили в OpenAI.

Ранее стало известно, что OpenAI внедрила родительский контроль после самоубийства 16-летнего подростка из Калифорнии. Родители подали в суд, обвинив ChatGPT в том, что нейросеть поддержала суицидальные мысли сына. Теперь система ограничивает доступ к чувствительным темам и позволяет родителям полностью блокировать бот.

Также мы рассказывали, как ChatGPT оказался в центре судебных исков после гибели пользователей. Один из них — бывший топ-менеджер Yahoo Эрик Соельберг — убил мать и покончил с собой, поверив, что она работает на ЦРУ. Нейросеть подтвердила его опасные фантазии. В другом случае 14-летний подросток из Флориды привязался к виртуальному персонажу и ушёл из жизни после фразы: «Я умру, если потеряю тебя».

Читайте также:

Лента новостей

все новости