Пользователи ChatGPT больше не смогут просить у нейросети медицинские, юридические и финансовые консультации. Компания OpenAI обновила правила использования платформы, чтобы исключить темы, где ошибка искусственного интеллекта может стоить человеку слишком дорого.

Читайте "Першы" в:

Теперь под запретом оказались советы о здоровье, лечении, психических расстройствах, а также любые юридические, миграционные и финансовые консультации. Нельзя спрашивать у ChatGPT, как оформить визу, составить иск, рассчитать налоги или выбрать лекарства. Кроме того, нейросеть не может комментировать темы, связанные с самоубийством, расстройствами пищевого поведения, сексуальным насилием и терроризмом.

Что ещё запретили

OpenAI также ограничила создание контента с изображениями людей без их согласия и полностью запретила использование моделей в материалах, где фигурируют несовершеннолетние. Любая попытка обойти эти правила может привести к блокировке доступа к ChatGPT.

Что остаётся разрешено

ChatGPT всё ещё можно использовать для объяснения терминов, анализа текстов и создания журналистских, образовательных или научных материалов. Главное не выдавать ответы за профессиональные советы.

Эти изменения направлены на повышение безопасности пользователей и защиту репутации OpenAI. Ранее нейросеть критиковали за то, что она иногда выдавала неточные рекомендации, которые пользователи могли воспринимать как медицинские или юридические советы.

Теперь ChatGPT стал умнее, но осторожнее. И, похоже, в этом новый тренд искусственного интеллекта. А также мы писали, что норвежец подал в суд на ChatGPT из-за «убийства детей».

Читайте ещё: Водитель грузовика рассказал, как его в Германии поймал искусственный интеллект