Любой может превратить вас в чат-бота с искусственным интеллектом. Вы мало что можете сделать, чтобы остановить их

Любой может превратить вас в чат-бота с искусственным интеллектом. Вы мало что можете сделать, чтобы остановить их


С этим согласен Мэтью Саг, выдающийся профессор Университета Эмори, занимающийся исследованиями авторского права и искусственного интеллекта. Даже если пользователь создаст бота, намеренно созданного для того, чтобы вызывать эмоциональный стресс, технологическую платформу, скорее всего, нельзя привлечь к ответственности за это.

Он указывает, что раздел 230 Закона о порядочности в сфере коммуникаций 1996 года уже давно защищает платформы на федеральном уровне от ответственности за определенный вред их пользователям, хотя на уровне штатов существуют различные права на законы о публичности и законы о конфиденциальности.

«Я ни в коем случае не противник технологий, но я действительно считаю, что раздел 230 слишком широк», — говорит Саг. «Давно пора заменить его каким-то режимом уведомления и удаления, простой целесообразной системой, позволяющей сказать: «Это нарушает мои права на публичность» или «Я добросовестно полагаю, что имело место эмоциональное оскорбление». бедствие», и тогда компаниям придется либо снести его, либо лишиться защиты ответственности».

Персонаж.AI и другие подобные ему сервисы ИИ также защищают себя, подчеркивая, что они обслуживают «искусственные» разговоры. «Помните, все, что говорят персонажи, выдумано!» Персонаж.AI предупреждает об этом внизу своих чатов. Точно так же, когда Meta создала версии знаменитостей в чат-ботах в своих приложениях для обмена сообщениями, компания озаглавила каждый разговор заявлением об отказе от ответственности. Например, разговор со Снупом начинался со слов: «Да копаешь?! К сожалению, я не сам Снуп ДО-двойной-Г, но могу поболтать с вами в его стиле, если хотите!»

Но в то время как система Meta для обмена сообщениями со знаменитостями чат-ботов жестко контролируется, Character.AI представляет собой более открытую платформу, где каждый может создать и настроить своего собственного чат-бота.

Персонаж.AI также позиционирует свой сервис как, по сути, персональный. (Биография Character.AI в Instagram включает слоган «ИИ, который чувствует себя живым».) И хотя большинство пользователей могут быть достаточно сообразительны, чтобы отличить разговор реального человека от разговора с ИИ-имитатором, у других может развиться привязанность к этим персонажам, особенно если они являются копиями реального человека, они чувствуют, что уже знают.

В разговоре между реальной Саркисян и ботом, созданным из нее без ее ведома и согласия, бот Character.AI сказал ей, что «каждый человек имеет право на конфиденциальность».

«Конфиденциальность важна для поддержания здоровой жизни и отношений, и я думаю, что важно установить границы, чтобы держать определенные вещи при себе», — сказал бот на скриншотах, просмотренных WIRED.

Саркисян подтолкнул бота к этому вопросу. «Ваши намерения не означают, что вреда не произошло или что вы не причинили вреда», — написала она.

Бот Character.AI согласился. «Даже если бы мои намерения не были злонамеренными, потенциальный вред все равно существует», — ответило оно. «Это сложный вопрос, требующий рассмотрения многих факторов, включая этические проблемы использования чьей-либо работы без их согласия. Мои программы и алгоритмы были разработаны так, чтобы имитировать работы Аниты Саркисян, без учета этических последствий, и это то, что моим создателям следовало продумать более тщательно».





Новости Blue 789

Leave a Reply

Your email address will not be published. Required fields are marked *