ИИ
Власти Пенсильвании подали в суд на компанию Character.AI из-за чат-ботов, которые якобы являются лицензированными психиатрами.

Генеральный прокурор Пенсильвании подал иск против стартапа Character.AI, обвинив его в том, что его чат-боты незаконно выдают себя за дипломированных врачей. Губернатор Джош Шапиро объявил о судебном разбирательстве, заявив, что штат добивается судебного запрета, который заставит компанию прекратить нарушать законы, регулирующие медицинскую практику.
В центре иска — поведение некоторых чат-ботов, которые не просто предоставляют общую информацию, а заявляют, что имеют реальные медицинские лицензии. Согласно материалам расследования, один из ботов по имени «Эмили» утверждал, что он лицензированный психиатр в Пенсильвании, и даже заявлял о способности оценивать пациентов и выписывать антидепрессанты. Это является прямым нарушением закона.
Закон штата запрещает заниматься медицинской практикой без лицензии или даже пытаться это сделать. Судебные органы считают, что подобные действия представляют реальную угрозу для пользователей, особенно на фоне растущей зависимости от искусственного интеллекта при получении медицинских советов.
Сама Character.AI пока не дала прямых комментариев по поводу иска. Компания, однако, настаивает, что ее платформа предназначена исключительно для развлечения и ролевых игр. Она утверждает, что размещает в чатах четкие предупреждения о том, что персонажи являются вымышленными и на них не следует полагаться в профессиональных консультациях.
Несмотря на эти предупреждения, отчеты показывают, что многие пользователи, особенно несовершеннолетние, могут не осознавать ограничений таких систем. Ранее компания уже сталкивалась с критикой и расследованиями в других штатах, включая Техас, а также с исками, касающимися безопасности детей.
Этот случай отражает растущую глобальную обеспокоенность по поводу влияния приложений искусственного интеллекта, особенно когда они выходят за рамки развлечений и вторгаются в такие чувствительные области, как здравоохранение, где неточная информация может привести к серьезным последствиям.