Доверите ли вы ИИ в качестве посредника в споре?

Доверите ли вы ИИ в качестве посредника в споре?


Исследователи из Google DeepMind недавно обучили систему больших языковых моделей, чтобы помочь людям прийти к согласию по сложным, но важным социальным или политическим вопросам. Модель ИИ была обучена выявлять и представлять области, в которых идеи людей пересекаются. С помощью этого ИИ-посредника небольшие группы участников исследования стали менее разделены в своих позициях по различным вопросам. Вы можете прочитать больше от Рианнон Уильямс здесь.

Одно из лучших применений чат-ботов с искусственным интеллектом — это мозговой штурм. Раньше мне удавалось использовать их для составления более настойчивых или убедительных электронных писем в неловких ситуациях, таких как жалобы на услуги или обсуждение счетов. Последние исследования показывают, что они могут помочь нам увидеть вещи и с точки зрения других людей. Так почему бы не использовать ИИ, чтобы уладить отношения с моим другом?

Я описал конфликт, как я его вижу, в ChatGPT и попросил совета, что мне делать. Ответ был очень обнадеживающим, потому что чат-бот с искусственным интеллектом поддержал мой подход к проблеме. Совет, который он дал, соответствовал тому, что я и так собирался сделать. Мне было полезно пообщаться с ботом и получить больше идей о том, как справиться с моей конкретной ситуацией. Но в конечном итоге я остался неудовлетворен, потому что советы все еще были довольно общими и расплывчатыми («Установите свои границы спокойно» и «Сообщите о своих чувствах») и на самом деле не предлагали того понимания, которое мог бы дать терапевт.

И есть еще одна проблема: у каждого аргумента есть две стороны. Я начал новый чат и описал проблему так, как, по моему мнению, ее видит мой друг. Чат-бот поддерживал и подтверждал решения моего друга, как и меня. С одной стороны, это упражнение помогло мне увидеть вещи с ее точки зрения. В конце концов, я пытался посочувствовать другому человеку, а не просто выиграть спор. Но с другой стороны, я вполне могу представить ситуацию, когда слишком сильное доверие советам чат-бота, который говорит нам то, что мы хотим услышать, может привести к тому, что мы удвоим усилия, не позволяя нам видеть вещи с точки зрения другого человека.

Это послужило хорошим напоминанием: чат-бот с искусственным интеллектом — не терапевт и не друг. Хотя он может повторять огромные объемы интернет-текста, на котором его обучали, он не понимает, что значит чувствовать грусть, растерянность или радость. Вот почему я бы с осторожностью использовал чат-ботов с искусственным интеллектом для вещей, которые действительно важны для вас, и не принимал бы то, что они говорят, за чистую монету.

Чат-бот с искусственным интеллектом никогда не сможет заменить реальный разговор, в котором обе стороны готовы по-настоящему выслушать и принять во внимание точку зрения другой. Поэтому я решил отказаться от разговора о терапии с использованием искусственного интеллекта и еще раз обратился к своему другу. Пожелайте мне удачи!


Более глубокое обучение

OpenAI утверждает, что ChatGPT относится к нам одинаково (большую часть времени)

ChatGPT относится к вам одинаково, независимо от того, являетесь ли вы Лори, Люком или Лашондой? Почти, но не совсем. OpenAI проанализировала миллионы разговоров с помощью своего популярного чат-бота и обнаружила, что ChatGPT создает вредный гендерный или расовый стереотип, основанный на имени пользователя, в среднем примерно в одном из 1000 ответов, а в худшем случае – в одном из 100 ответов.



Новости Blue 789

Leave a Reply

Your email address will not be published. Required fields are marked *