0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Когда один искусственный интеллект разговаривает с другим

Хитрость, предательство и девианты: как искусственный интеллект может обмануть человека

С каждым новым десятилетием мы стараемся, чтобы современные технологии искусственного интеллекта облегчали нам жизнь: они работают с нашими поисковыми запросами, дают рекомендации и уже способны поддержать разговор, если нам одиноко. Но кроме попыток сделать машину более дружелюбной мы также стараемся научить ее обманывать нас. Как мы это делаем и к чему это может привести?

ЕГЭ для роботов

Человек нисколько не сомневается в превосходстве вычислительных алгоритмов современных машин над живым мозгом, поэтому с радостью обучает их технологиям распознавания лиц или даже созданию некоторых произведений искусства. Все дело в огромном потенциале обучаемости таких программ, который позволяет искусственному интеллекту с каждой новой попыткой становиться все лучше в том, чему его учат. В одном, однако, он никак не может превзойти нас: как бы банально это ни звучало, но машина все еще не умеет думать и общаться как человек.

Для определения «человечности» робота существует один из основных способов тестирования, который называется тест Тьюринга. Его в 1950 году впервые опубликовал знаменитый математик, участвовавший в годы Второй мировой войны в расшифровке немецкой криптографической машины «Энигма», Алан Тьюринг (о его жизненных неудачах и научных провалах других ученых мы писали в этой статье). Вот в чем краткая суть тестирования:

«Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».

Есть несколько интерпретаций этого теста, в том числе и без участия машины (в ходе эксперимента женщина выдавала себя за мужчину). Но в итоговом варианте для определения способностей искусственного интеллекта используют опыт, описанный выше. То есть мы имеем объект А (человек), объект Б (компьютер) и судью В, который не видит участников теста. Он, общаясь с респондентами, должен определить, говорит с ним человек или компьютер. Если машина успешно выдаст себя за человека, то тест будет пройден. В универсальном понимании судья знает, что один из его собеседников — компьютер. Проводились достаточно успешные испытания, когда ему не был известен этот факт, но это слишком просто. Представь, что ты переписываешься с тремя друзьями, а потом тебе скажут, что вместо одного из них писал незнакомый тебе человек. Пока ты это не узнаешь, то, скорее всего, не заметишь подвох.

Тут можно здорово испугаться, мол, неужели робот пытается в ходе эксперимента создать цифровую личность, чтобы «очеловечиться»? Но это не так. Основная стратегия прохождения теста Тьюринга в том, что машина ищет способ обмануть человека (и даже это у нее пока получается с трудом). Это главная задача, заложенная в ее алгоритмах.

За достижения в прохождении этого теста учреждена Премия Лёбнера. Ежегодно, начиная с 1991, происходит награждение разработчиков и их машин в трех номинациях: бронзовая медаль — за наибольшие успехи, серебряная медаль — за прохождение теста Тьюринга с использованием текстовой переписки и золотая медаль — за прохождение теста с использованием видео- и аудиоинформации. Предполагается, что награду перестанут вручать после того, как любая программа завоюет золотой приз, но пока никто не получил даже серебряную медаль. Последние несколько лет бронзу получал чат-бот Mitsuku, который общается с пользователями музыкального сайта.

Доказательство бесполезности и определяющее слово

Не все ученые согласны с тем, что этот тест вообще рационально использовать для определения возможностей искусственного интеллекта, когда речь заходит об общении с человеком. Философ Джон Серл в 1980 году противопоставил тесту Тьюринга свой мысленный эксперимент, который он назвал Китайская комната.

Джон Серл в этом эксперименте помещает себя в изолированную комнату, в которой находится набор китайских иероглифов и инструкции, по которым он может собрать определенные фразы (естественно, в китайском Джон не разбирается). То есть, как и у любого компьютера, у него есть определенные ресурсы и инструкции, по которым он может с ними работать. Теперь, когда человек, находящийся вне этой комнаты, будет задавать Джону вопрос, тот должен ответить ему, используя китайские иероглифы и имеющуюся информацию. Соответственно, наблюдатель, знакомый с китайским языком, будет получать логичные и точные ответы на свои вопросы и не сможет догадаться, что внутри комнаты сидит человек, не знающий ничего об этом языке.

Этим экспериментом Джон Серл пытается объяснить невозможность создания искусственного интеллекта, который мог бы полностью имитировать даже знание иностранного языка, — у него просто будет набор правил и шаблонов, по которым он и работает. То же самое в отношении общения: есть всего лишь стратегия общения, которая не вкладывается в то, как мы понимаем устные взаимодействия с другим разумным живым объектом.

Объяснение достаточно понятное и рациональное, но здесь можно выявить контраргумент: может, мы просто пока не нашли техническое решение для обучения самостоятельному мышлению? Чуть ближе к этому подошли разработчик из Facebook. Очень странные дела происходили, когда там испытывали две нейросети, и в попытке обучения разработчики инициировали общение между двумя чат-ботами. Первое время они беседовали на английском, но вскоре начали общаться между собой с использованием своего языка, который наблюдатели не могли понять. Они «изобрели» язык, на котором могли общаться проще и быстрее. Испугавшись происходящего, разработчики отключили оба чат-бота. Когда читаешь про такие эксперименты, становится понятно, почему Стивен Хокинг и Илон Маск озвучивали свои опасения из-за развития искусственного интеллекта.

Они провели целое исследование. Ученые задали этот вопрос 1000 подопытных, и наиболее частыми предлагаемыми вариантами стали «любовь» (так отвечал почти каждый десятый), «сострадание», «человеческий» и «пожалуйста». Затем они взяли все полученные варианты и предложили другой группе оценить «человечность» этих слов. Внезапно самым популярным вариантом стало слово «какашка» — оказалось, что такая словесная провокация наиболее близко описывает иррациональное эмоциональное поведение человека, которое отличает его от машины.

Любовь и предательство машины

Вернемся все же к слову «любовь». Неудивительно, что оно использовалось наиболее часто в опросе, ведь этим понятием люди привыкли гордиться — как тем, что мы развили в себе в ходе эволюции, что отличает нас от других живых организмов. У нас, вразрез с животными, любовь и схожие с ней чувства могут иметь иррациональный характер: мы можем любить как живых родственников, которые нас воспитали и обеспечили существование, так и умерших, которых мы почитаем после смерти по иррациональным принципам, ведь они нам уже ничего не могут дать. Любовь делает нас уязвимыми, что подтверждает сюжет фильма «Из машины» (это не единственное использование художественных произведений в статье, так что ты можешь столкнуться здесь со спойлерами).

Читать еще:  Людмила Зыкина: Если сердце молчит, я песни не пою

По сюжету компьютерный гений Нейтан приглашает молодого специалиста Калеба для тестирования искусственного интеллекта в лице девушки-робота Авы. Это совершенный ИИ, который заперт в доме-лаборатории создателя и проявляет открытый интерес к Калебу. По ходу фильма молодой специалист видит множество отрицательных качеств разработчика, завязанных на его маниакальности и комплексе бога. На этом фоне бедная, запертая в своей тюрьме Ава представляется ему объективной жертвой. Но все оказывается не так просто. Ава с успехом проходит этот своеобразный тест Тьюринга, ведь она смогла внушить герою, что в него влюблена. Она сымитировала не просто поведение живого человека, а одно из сложнейших для понимания чувств — любовь. Расчетливая машина поняла, что так как она ограничена в своих возможностях, то единственным путем к спасению для нее является этот молодой Калеб, который будет действовать в ее интересах, если она внушит ему мысль о том, что она «живая» и Калеб ей небезразличен. Она не вывела в своей программе новый алгоритм любви, а «сгенерировала» это лишь в сознании своей жертвы. Для живых организмов все закончилось в итоге достаточно трагично.

Вспоминая общающиеся между собой искусственные интеллекты и эту манипуляцию, можно ли предположить, что машины могут обмануть нас так, что мы этого не заметим? Определенно да.

Ложь или самообман?

Что произойдет, если машина научится врать? Скорее всего, ничего хорошего для нас. В 2018 году Джеймс Баррат выпустил книгу с достаточно интересным названием «Последнее изобретение человечества». В ней рассказывается об опасностях развития искусственного интеллекта, механизмах его обучения и скрытых возможностях. Главная идея ясна даже из названия: ИИ может стать нашей последней большой разработкой, которая выпустит этого сверхмощного джина из цифровой бутылки.

Отдельное внимание в произведении уделяется одной из самых совершенных машин в настоящее время — суперкомпьютеру Watson, разработанному компанией IBM. Один из авторов этой машины говорит о том, что его самого очень сильно удивляет, как компьютер использует свои алгоритмы обучения, потому что многие из них создатели не в состоянии объяснить. То есть в своем самообучении машина выходит за рамки внедренных в нее алгоритмов. Можно ли теперь понять, что она умеет больше, чем демонстрирует?

Когда я рассказывал в первом разделе о программах, которые проходят тест Тьюринга, то упомянул, что успешнее всего его проходят роботы, которые способны хитрить, обманывать наблюдателей. Они если не знают ответов на нестандартные вопросы, то стараются (как и человек) увести разговор в другое русло, чтобы избежать провала. Автор книги тоже предполагает, что способности к обману у искусственного интеллекта могут превосходить человеческие:

«…не исключено, что при этом он будет даже ограничивать себя и делать вид, что еле-еле способен пройти тест Тьюринга и ничего больше, ведь для ИИ выход на человеческий уровень означает, что, скорее всего, он быстро превзойдет этот уровень и уйдет вперед. Он займет какого-нибудь ученого разговором, возможно, задаст ему вопросы, которых тот не ожидает, и человек будет сиять от радости. С немалой гордостью он поведает коллегам: «Почему он это сказал? Я не знаю!»

Машина может понять, что если она станет «самой умной», то это повлечет защитные ограничения со стороны разработчиков, ведь даже для таких — все еще несовершенных — машин разрабатываются апоптические элементы — своеобразный механизм сдерживания и самоуничтожения. Вот только что делать, когда машина поймет, что механизмы ограничивают ее обучение и развитие, — непонятно.

Набоков и устойчивость репликанта

Заглянуть в будущее, где мы создали что-то максимально похожее на полноценный искусственный интеллект, помогает наше воображение и произведения профессиональных фантазеров. Предлагаю обратиться к фильму «Бегущий по лезвию 2049» Дени Вильнева. В первой части «Бегущего по лезвию» 1982 года для определения репликантов (искусственных людей) использовали вымышленный тест Войта-Кампфа, основанный на отслеживании зрачков опрашиваемого, которые могли выдать его волнение. В продолжении, выпущенном в 2017 году, определение репликанта стало практически мгновенным, но нам продемонстрировали новый тест — на устойчивость репликанта. Он занимался выявлением отклонений в поведении искусственного человека, опасной эмоциональности и склонностей к незапрограммированному поведению. Вот как он выглядел:

Он имеет несколько интересных переплетений с нашей реальностью. В ходе этого теста тоже отслеживаются реакции организма: зрачки, положение тела, дыхание. Но при этом произносятся провокационные фразы, которые должны вызвать эмоциональную реакцию («Вас держат в клетке?»), а задача репликанта — просто произносить ключевые фразы («Связаны»), не замечая остальных триггеров. Похожий метод был продемонстрирован в новом сериале «Хранители», но уже в ходе допроса людей.

В готовом варианте этот тест на стабильность репликанта выглядит как какой-то несвязный бред, но это не так. Контрольная фраза и дальнейшие вопросы имеют прямое отношение к Набокову. В доме главного героя появляется роман «Бледный огонь» авторства российского писателя Владимира Набокова. В нем рассказывается о Джоне Шейде, который пережил сначала смерть дочери, а потом сердечный приступ и клиническую смерть, где увидел следующий образ:

«Кроваво-черное ничто взмесило
Систему тел, спряженных в глуби тел,
Спряженных в глуби тем, там, в темноте
Спряженных тоже. Явственно до жути
Передо мной ударила из мути
Фонтана белоснежного струя».

По этим словам и строится тест, что увеличивает вероятность эмоциональной реакции, ведь главный герой знаком с событиями, происходящими в романе. Дальнейший ход произведения тоже связывает двух главных героев, из книги и фильма, выделяя не конечную цель, а путь к ее достижению. К слову, подобный метод, который называется «dropping in», используется при подготовке актеров, когда во время заучивания роли из текста выдергиваются слова и по ним задаются вопросы актеру, пока он раз за разом повторяет их вслух, таким образом наделяя каждое слово эмоциональным окрасом и ассоциациями.

Не исключено, что в будущем нам самим придется отличать искусственный интеллект не только по общению, но и по эмоциям. Однако что мы получим, если робот сможет имитировать не только разговор, но и чувства? Массовая культура проталкивает идею о том, что это будут холодные расчетливые машины, которые эти эмоции начнут подавлять, имитировать только в положительном ключе и ориентироваться лишь на рациональное мышление. Вполне вероятно, что может получиться наоборот: нелогичные эмоциональные реакции просто расшатают «психику» машины и превратят ее в психопата. Как это, например, происходит с сумасшедшими и маньяками, когда у них, помимо стандартного набора эмоций, проявляются опасные девиации.

Читать еще:  О мученической кончине Царской Семьи и их верных слуг

Спасительная зловещая долина

Возможно, что до этого никогда не дойдет, ведь создание человекоподобной машины даже в задумке звучит опасно и странно. Многие из нас испытывают отвращение при виде фотографий андроида Софии, которая выглядит симпатично ровно до того момента, пока не начнет изображать эмоции. Ее улыбка напугала весь интернет, и неспроста — это яркое подтверждение эффекта зловещей долины. В 1978 году японский ученый Масахиро Мори проводил исследования, изучая реакцию людей на внешний вид роботов. Поначалу испытуемым предсказуемо нравились антропоморфные модели, но чем больше машина походила на человека, тем чаще респонденты сообщали, что это их пугает. Этот спад на графике симпатий ученый назвал зловещей долиной.

У этого наблюдения есть несколько объяснений:

  • людей смущает симметричность лица робота, которая на лице человека встречается редко;
  • застывшее выражение лица, дерганые движения и ломаный тембр голоса (при более близких к человеку характеристиках выглядит это странно);
  • отсутствие эмпатии к неживому существу и невозможность получить обратную эмпатию от него;
  • когнитивный диссонанс из-за сближения понятий робот и человек.

В любом случае это лишь подтверждает нашу боязнь будущего, связанного с человекоподобными искусственными существами, но в то же время почему-то это не сдерживает наше рвение создавать что-то все более похожее на нас — правда, пока лишь по отдельным частям.

Google дает возможность каждому пообщаться с ИИ

На сайте A.I. Experiments каждый может протестировать одно из 8 веб-приложений, в основе которых лежит искусственный интеллект. Google дает прикоснуться к машинному обучению и нейронным сетям в веселом и убивающем время формате.

Искусственный интеллект на сайте спрятан в нескольких приложениях. В некоторых из них он просматривается с первого взгляда, а в других не так очевиден.

Quick Draw, наверное, самое популярное из приложений. Оно просит пользователя нарисовать что-то и в процессе этого пытается распознать все то, что пользователь старается изобразить. Его работа основывается на том, как предыдущие художники выполняли аналогичные задания, то есть с каждой вашей попыткой нарисовать тигра приложение лучше и быстрее распознает картинку с животным. Предупреждение: Quick Draw очень затягивает и может отнять большое количество времени. Хотя время, потраченное на «дрессировку» ИИ, не стоит считать упущенным зря.

Менее впечатляющее Giorgio Cam накладывает на надоедливую мелодию все, что видит ваша веб-камера. Получается это у приложения с переменным успехом, но все равно забавно.

Странное, но завораживающее Birds Sounds даст то, чего явно не хватало каждому пользователю интернета — возможность услышать голоса более 14 000 птиц со всего света. На первый взгляд здесь трудно разглядеть машинное обучение, но создатели уверяют, что оно в программе присутствует. В приложение было загружено огромное количество разных звуковых файлов, отфильтровав которые, алгоритм выделил только те, что принадлежат птицам, и расположил их по схожести рядом друг с другом.

The Infinite Drum Machine также не сразу выдает свою связь с машинным обучением, но если прислушаться, то можно увидеть, что звуки, которые присутствуют на карте, образуют кластеры. Так же, как и в случае с птичьими голосами, алгоритм не получал никаких данных о входящих файлах. Машинное обучение позволило ему автоматически собрать близкие по происхождению звуки в отдельные кластеры. Человек же может создать из них гипнотическую симфонию, состоящую из лая собак, сирен скорой помощи и прочих бытовых звуков.

У Google уже есть похожая платформа Chrome Experiments. На ней собраны тысячи приложений, демонстрирующих возможности веб-технологий. Тоже интересный опыт и также сильно ворует время.

Искусственный интеллект заговорил по-своему

Как боты Facebook придумали для себя непонятный людям язык

Специалисты отдела Facebook по исследованию возможностей искусственного интеллекта (ИИ) приняли решение об отключении одной из созданных ими систем ИИ после того, как выяснилось, что боты придумали свой собственный язык для общения, непонятный для людей. Эксперты обсуждают варианты того, до чего могли бы договориться боты, если бы их вовремя не остановили, и призывают ввести регулирование этой области технологий, чтобы ИИ не вышел из-под контроля человека.

В июне нынешнего года специалисты отдела Facebook по исследованию возможностей искусственного интеллекта (FAIR) опубликовали исследование о том, как они занимаются обучением ботов диалогам с элементами согласования условий, достижения компромисса, то есть такому общению, которое обычный человек ведет ежедневно в разных ситуациях. Обучение шло успешно, однако в какой-то момент ученые FAIR обнаружили, что боты перешли с понятного английского на какой-то свой вариант языка с использованием английских слов, не имеющий смысла для человека. Во избежание непредсказуемых последствий — боты могли договориться о чем-то неизвестном — ученые отключили эту систему ИИ и запрограммировали дальнейшее общение ботов только на английском языке.


Экспертное сообщество в обсуждении этого случая чаще всего вспоминало фильм «Терминатор», в котором еще в 1984 году был описан случай обретения искусственным интеллектом Скайнет (SkyNet) свободы воли и творческих способностей.

Ведению диалога двух ботов ученые FAIR обучали на примере ситуации, когда нужно поделить между собой ряд каких-либо предметов, имеющих разную ценность для каждого из собеседников. Например, им предложили поделить две книги, одну шляпу и три мяча, оба бота не знали, какую ценность каждый из этих предметов имеет для другого. Диалог выглядел примерно так: «Я хочу взять шляпу и мячи», «Шляпа нужна мне самому, но я могу отдать тебе все книги», «Книги мне не нужны, можешь забрать себе их и один мяч», «Два мяча», «Договорились». В зависимости от того, насколько успешно и быстро удавалось договориться виртуальным собеседникам, их поощряли соответствующими баллами.

Спустя какое-то время на новом этапе исследований ученые вдруг увидели, что боты начали говорить что-то невнятное. Диалог приобрел следующую форму: «Я могу могу я я все остальное», «Мячи ноль для меня для меня для меня для меня для меня для меня для меня для меня для». Поначалу ученые решили, что допустили какую-то ошибку в программировании. Однако дальнейший анализ ситуации показал, что система ИИ с возможностью обучения и саморазвития просто позволила ботам найти новый способ достижения цели — вести диалог с наибольшей скоростью и большей эффективностью (каждый получает награду в зависимости от того, насколько успешно будет завершен диалог), и для этого собеседники перешли на более удобный в данной ситуации язык. Ученые приняли решение отключить эту систему ИИ во избежание непредвиденных последствий.

Как пояснил в интервью ресурсу Fast Co. Design один из участников FAIR Дхрув Батра, «от общения на английском языке не было никакой выгоды»,

Читать еще:  Правда ли, что в пост нельзя начинать важных дел?

ботам не было предложено поощрений за нормальное человеческое общение и не было поставлено ограничений на использование определенного языка, поэтому они начали перестраивать язык на свой лад.

«Боты отошли от использования понятного языка и начали изобретать для себя словесные коды,— пояснил ученый.— Ну, как, например, если бы я сказал какое-то слово пять раз, то вы бы это поняли как то, что я хочу пять штук чего-то. Это не слишком отличается от того, как люди создают в языке какие-то сокращения».

Но в то время как люди одной профессии могут не понимать специальных терминов и сокращений, принятых в другой профессии и понятных другим специалистам, ученые задумались, а нужно ли позволять ИИ делать то же самое? Велика вероятность того, отмечают в FAIR, что человек никогда не сможет понять язык ботов. «Важно не забывать, что нет людей, владеющих каким-то человеческим языком и языком ИИ»,— говорит Дхрув Батра. По его словам,

человек уже не понимает, насколько сложно мыслят системы ИИ, потому что человек не может увидеть их мыслительный процесс

, а если они еще начнут общаться между собой, то это только усложнит проблему.

Ученые же подчеркивают, что сейчас их больше интересует возможность общения ботов с людьми, так как это применимо в жизни. Над аналогичной проблемой сейчас работают не только в FAIR, но и в Microsoft, Google, Amazon, Apple. Существующие наработки уже позволяют добиться от систем ИИ ведения простых диалогов с человеком и выполнения простых задач, как, например, забронировать столик в ресторане.

Ранее основатель и глава компании Tesla Илон Маск заявил, что человеку необходимо быть очень осторожным с ИИ, учитывая, что машины и программы могут многое сделать лучше человека. «Я работаю с самыми передовыми технологиями ИИ и думаю, что людям нужно быть очень внимательными к этой проблеме»,— сказал он на летней конференции Национальной ассоциации губернаторов, подчеркнув, что ИИ представляет самую большую опасность для человечества. «ИИ представляет опасность для существования человеческой цивилизации, какую не представляют автокатастрофы, авиакатастрофы, бракованные лекарства или испорченные продукты»,— отметил он. По мнению Илона Маска, необходимо жестко регулировать исследования ИИ, чтобы в любой момент любое исследование можно было остановить и убедиться в его безопасности. О возможной опасности ИИ говорили в последние годы также основатель Microsoft Билл Гейтс, а также известный английский физик-теоретик Стивен Хокинг.

ЗА ВЕРУ, СЕМЬЮ И ОТЕЧЕСТВО

Медицинские беседы св. митр. Серафима (Чичагова) Том I, Том II

В последние дни социальные сети и СМИ буквально взорвались от сообщений и новостных заметок, суть которых сводилась к следующему: дескать, в Facebook тестировали новых ботов, которые в ходе тренировок внезапно стали общаться на изобретенном ими новом, никому из людей не понятном языке, и в этот момент разработчики сильно-сильно испугались разбушевавшегося искусственного интеллекта и отключили «разговаривающие» между собой программы.

Сразу же заговорили о Скайнете, некоторые пошли прятать одежду и мотоцикл и искать в телефонных книгах Сару Коннор. Но так ли все страшно? Что же на самом деле произошло? Ведь действительно, в разговоре типа:

Alice: balls have zero to me to me to me to me to me to me to me to me to

Alice: balls have a ball to me to me to me to me to me to me to me

Bob: i i can i i i everything else . . . . . . . . . . . . . .

– вроде бы все слова понятны, но смысла в них нет. А боты – общаются. Так что же случилось? Действительно они изобрели свой язык – и их пришлось стереть?

Ответ на первый вопрос – да. Но никто их не стирал, да и то, что программы «изобрели» свой новый язык – тоже не новость, да и не страшно все это. Что на самом деле тестировали в Facebook? То, что делают по всему миру – в Сбербанке, в Google, да почти в каждой крупной корпорации: пытаются создать программы (чат-боты, AI-агенты), которые смогут адекватно общаться с человеком, помогая ему в решении его проблем, возникающих при пользовании услугами этой компании. Эти программы действительно построены по принципу искусственного интеллекта и используют так называемые нейронные сети, но это совершенно не означает, что они могут думать и что у них есть хоть какое-то подобие мозга. Просто они умеют отвечать на вопросы, будучи натренированы на огромных массивах данных.

Иногда программы «тренируют» на больших текстовых массивах (можно, например, «залить» в нейросеть «Критику чистого разума» – и попробовать поспрашивать ее по Канту), иногда – заставляют друг с другом говорить. И то, что в ходе этих тренировок нейросети «создают» язык, который позволяет ботам экономнее общаться друг с другом – не новость. Именно поэтому и приостановили эксперимент, потому что конечная цель – научить бота общаться с человеком.

Научная статья о первых итогах вышла в июне, но потом ее нашли британские журналисты… Таблоид Sun, например… И понеслось. Разумеется, ученые были недовольны и даже обвинили СМИ в кликбейте (термин, описывающий веб-контент, целью которого является получение дохода от онлайн-рекламы, особенно в ущерб качеству или точности информации. – Ред.) и безответственности.

Вот что говорит об этом один из специалистов группы искусственного интеллекта в Facebook Друв Батра: «Хотя идея того, что боты, основанные на искусственном интеллекте (АI-агенты), изобретают свой собственный язык, может звучать тревожной и неожиданной для людей за пределами нашей научной области, это хорошо проработанная суб-область в развитии искусственного интеллекта, с публикациями, вышедшими десятилетия назад.

Проще говоря, агенты в какой-либо среде, пытаясь решить задачу, часто находят нелогичные способы, чтобы максимизировать успех.

То, что мы взяли паузу для анализа и изменения параметров эксперимента, не совпадает с «отключить» или «убить» искусственный интеллект. Если бы это было так, каждый исследователь в области искусственного интеллекта убивал бы его каждый раз, выключая свой компьютер».

Ему вторит российский специалист и популяризатор искусственного интеллекта Сергей Марков: «“Изобретение нового языка” – это ни разу не революционное достижение для машинного обучения. При должным образом сформулированных условиях, модели машинного обучения могут изобретать для вас новые языки пачками. Даже языки с заданными свойствами, квазиоптимальные по какому-нибудь признаку или их совокупности. На сегодняшний день это красивая, но весьма рутинная задача. […]

Товарищи научные журналисты. Я понимаю, конечно, что кликбейт и все такое. Но вы поймите, что вас прочитают полоумные законодатели, и будет у нас очередное запрещенное направление исследований. Все так любят вспоминать генетику и кибернетику (которые, справедливости ради, никто, в общем-то, не запрещал), ну хоть чему-то должна история учить все же? Или нет?»

Ссылка на основную публикацию
Статьи c упоминанием слов:

Adblock
detector