Можно ли взять под контроль искусственный интеллект?
Разработки в области создания искусственного интеллекта однажды могут привести к созданию сверхинтеллекта. Но нужно понимать всю сложность управления системой с намного превосходящим наш собственный интеллектом, говорит философ Ник Бостром.
Профессор Бостром является основателем и директором Института Будущего Человечества в Оксфордском университете. Его работа охватывает такие темы, как последствия будущих технологий и концепции экзистенциального риска: опасности, которые угрожают дальнейшему существованию человечества. Он также известен тем, что поднял вопрос о том, живем мы или нет в компьютерной симуляции.
В своих работах Бостром определяет сверхинтеллект как любой интеллект, который значительно превосходит самый лучший человеческий мозг практически во всех областях, в том числе в научном творчестве, общей мудрости и социальных навыках. Если такая система искусственного интеллекта получит доступ к исполнительным механизмам, таким как роботы, это будет невероятно мощным средством. И даже если это создание будет ограничиваться всего лишь одной интеллектуальной машиной, это будет иметь огромное влияние на то, как человечество будет развиваться. Помимо всего прочего сверхинтеллект, вероятнее всего, быстро ускорит научно-технический прогресс и, как вероятный результат, создаст еще более интеллектуальные системы искусственного интеллекта.
Существует громадный риск, связанный с безопасностью, в создании машины более умной, чем любой человек или даже всех людей вместе в совокупности, так как нет никакой гарантии, мы сможем контролировать действия своего создания.
С точки зрения оценки риска самое малоопасное предположение заключено в том, что если что-то может быть сделано, искусственный интеллект сможет сделать это. То есть, если законы физики или какие-либо другие ограничения, глубоко закодированные во вселенной, не предотвратят этого, сверхинтеллект в конечном итоге достигнет точки, где он сможет состояться. И хорошо будет, если система будет соблюдать исключительно интересы человечества… Если, однако, его главной целью будет включить все свои имеющиеся ресурсы, то мы столкнёмся с экзистенциальным риском.
В своей речи Бостром исследует два различных подхода к управлению искусственным суперинтеллектом: контроль возможностей и мотивационный контроль. Но он тут же добавляет, что каждый из механизмов контроля имеет свою слабую сторону.
Контроль возможностей может принимать различные формы. Существует физическая оболочка. Можно заблокировать искусственный интеллект в коробке с отсутствием доступа к приводам или интернету. Но всегда есть риск того, что он сам взломает все ходы и найдёт свой «выход» из коробки. Кроме того, люди должны иметь возможность общения с искусственным интеллектом, в противном случае он будет бесполезен. И люди не являются непогрешимыми системы, они сами могут быть скомпрометированы.
Предлагается внедрение системы сдерживания в систему. Конкретные случаи, наподобие нездорового интереса к использованию всего ресурса по максимуму, заставит систему закрыться. Однако это потребует предвидения всех возможных вариантов его подозрительного поведения уже на этапе проектирования. Во-вторых, сверхинтеллекту может стать известно об этих внедрениях и он может отключить их.
Другой способ контроля искусственного интеллекта – это стимулы. Проблемой с этими скупыми вознаграждениями-сигналами за хорошее поведение является то, что ИИ может обойти человеческий контроль над виртуальными куки. В худшем случае это позволит устранить людей, чтобы получить прямой доступ к кнопке вознаграждения. Так и может возникнуть наркоман-искусственный интеллект.
Другой подход заключается в мотивационном контроле: разработка дружественных мотиваций по отношению к человеку и внедрение их в систему на этапе проектирования. И одним из способов является прямая спецификация, программирование хорошего поведения непосредственно в искусственный интеллект. Но человеческие ценности настолько “хрупки и сложны”, что мы не можем с лёгкостью закодировать их в C ++.
Более действенным методом является косвенная спецификация, то есть проектирование системы таким образом, чтобы она училась в течение долгого времени так же, как люди, и чтобы таким же образом приобретала ценности. Проблема здесь заключается в том, что ученые не знают, как это работает в организме человека. Но считается, что такой подход является одним из наиболее перспективных направлений в контроле и управлении суперинтеллекта.
В любом случае, напрашивается вывод, что некоторые механизмы контроля являются менее перспективными, а другие достойны исследований. Но ни один способ даже близко не пришел к обеспечению гарантированного решения проблемы управления сверхинтеллектом. Так что человечеству предстоит ещё хорошо подумать, нужен ли им сверхинтеллект и насколько его дружественность по отношению к своим создателям программируема.
Это конечно старая тема прожеванная фантастами, да и вообще любыми мыслящими людьми.
Выход из под контроля даже роботов опасен, не говоря уже о сверхинтеллекте.
Надо понять, что до определенного времени что бы не делал человек - это подчинено человеку и его решению, но с другой стороны уже сейчас встречаются казусы в работе таких механизмов. Так например искусственное пилотирование самолета начинает порой мешать летчику принять верное решение. Автомат глушит совершенно другое решение (человеческое) Да есть кнопка, где летчик можем выйти из автоматического управления самолетом, но порой это бывает не спасительным решением и лучше было бы отдать автомату решить эту задачу, которая бывает далеко не легкой. Ошибки пилотов встречаются слишком часто, но нет ли ошибок и в решении автоматов?
Сбои при работе автомата - зачастую встречаются. Конечно в статье не идет речь о сбоях, а о том что управление полностью будет передано в руки искусственному интеллекту, что может повлечь за собой все что угодно. И неправильные решения, и порабощение человека машиной.
Мы не рассматриваем аварии, а рассматриваем решение машины, которая порой может действовать помимо воли и решения человека.