misc/class
lib/jquery_pnotify, lib/moment, lib/lodash, misc/notification, misc/social, site/engine
$._social.__cfg = {"init":[{"service":"basic"},{"fb_app_id":"556076531075995","service":"fb"},{"vk_app_id":"3235940","service":"vk"},{"service":"twi"}],"like":[{"service":"fb"},{"service":"vk"},{"via":"GonzoKZ","channel":"GonzoKZ","hash_tag":"","service":"twi"}],"twi":{"like_count":"vertical"},"fb":{"like_layout":"box_count"},"vk":{"like_type":"vertical","like_fixed":true}}; window._SiteEngine = new classes.SiteEngine( { user_id: 0, controller: 'Blog', action: 'page', content_css_version: '1432482607', social_enabled: 1, custom: []} ); (function($){ var GA_ID = "UA-36321844-1"; function gaTrackPageview() { var gaJsHost = (("https:" == document.location.protocol) ? "https://ssl." : "http://www."); var src = gaJsHost + "google-analytics.com/ga.js"; $.getScript(src, function(data, textStatus) { var tracker = _gat._getTracker(GA_ID); tracker._trackPageview(); }); } $(document).ready(function() { gaTrackPageview(); }); })(jQuery);
Интернет-журнал «Культура и общество»
Войти через:
Комментарии
Лучшие посты
По комментариям
По просмотрам
С нами
Сейчас online
А также 74 гостя
Блоги
184
с нами с 14 ноября 2012

Грэйди Буч: Не бойтесь сверхразумного искусственного интеллекта

«Новые технологии порождают тревогу, — говорит ученый и философ Грэйди Буч. — Но не нужно бояться всемогущего, бесчувственного ИИ». Буч разоблачает наши худшие страхи о сверхразумных компьютерах, основанные на научной фантастике. Он объясняет, как мы обучим их — а не запрограммируем — нашим ценностям. Вместо того, чтобы беспокоиться о маловероятной угрозе нашему существованию, он призывает задуматься о том, как искусственный интеллект поспособствует улучшению человеческой жизни

 

  •  

В детстве я был типичным ботаником. Думаю, некоторые из вас тоже.

А вы смеетесь громче всех, наверняка таким и остались.

Я вырос в маленьком городке среди равнин Северного Техаса. Мой отец был шерифом, а дед — пастором. Никаких вариантов бедокурить. Поэтому ради забавы я начал читать книги по математическому анализу.

И вы — тоже! Благодаря этому я сконструировал в своей комнате лазер, компьютер и модель, а потом и топливо для ракеты. Научный термин для этого — очень плохая идея.

Как раз в то время вышел фильм Стенли Кубрика «Космическая одиссея 2001 года», он кардинально изменил мою жизнь. Мне нравилось в этом фильме абсолютно все, особенно HAL 9000. HAL был разумным компьютером, управляющим космическим кораблем Discovery, направляющимся от Земли к Юпитеру. У него был небезупречный характер, и в итоге человеческой жизни он предпочел миссию. HAL был вымышленным персонажем, но тем не менее, он вызывает страх, страх быть порабощенным бесчувственным искусственным интеллектом, равнодушным к человеку.

Я считаю, такие страхи безосновательны. В самом деле, мы живем в удивительное время в человеческой истории, когда, не принимая ограничения наших тел и нашего разума, мы создаем механизмы изумительной, невероятной сложности и тонкости, которые расширят способности человека за грани нашего воображения.

Начав карьеру в Академии ВВС, продолжив в Космическом командовании ВС США, я стал инженером-системотехником. А в настоящее время занимаюсь инженерными разработками, связанными с миссией НАСА на Марсе. Сейчас в полетах на Луну мы можем полагаться на управление полетами в Хьюстоне, чтобы следить за всеми аспектами полета. Однако Марс в 200 раз дальше Луны, и поэтому сигнал от Земли к Марсу идет в среднем 13 минут. Случись какая-то неполадка, времени не хватит. Поэтому разумное инженерное решение — разместить центр управления полетами внутри космического корабля Orion. Другая увлекательная идея для миссии — отправить роботов-гуманоидов на Марс до прилета людей: сначала они построят базы, а потом будут помогать научной команде.

Когда я посмотрел на это как инженер, стало ясно, что нужно спроектировать умный, способный к сотрудничеству, социально-сознательный искусственный интеллект. Другими словами, нужно было создать что-то очень похожее на HAL, но без склонности к убийствам.

Давайте на минуту остановимся. Реально ли сделать такой искусственный интеллект? Вполне. Во многом это сложная инженерная задача с использованием ИИ, а не запутанный клубок проблем ИИ, который нужно распутать. Перефразируя Алана Тьюринга, я не собираюсь создавать разумного робота. Я не собираюсь создавать HAL. Мне всего лишь нужен простой разум с иллюзией интеллекта.

Искусство и наука о вычислительной технике прошли долгий путь с появления HAL на экранах, и я представляю, сколько вопросов возникло бы у его изобретателя д-ра Чандра, будь он сейчас здесь. Возможно ли на самом деле взять систему из миллионов устройств, прочитать их потоки данных, предугадать их ошибки и заранее исправить? Да. Можно ли создать механизмы, которые говорят на человеческом языке? Да. Создать механизмы, способные распознавать объекты, эмоции, выражать свои эмоции, играть и даже читать по губам? Да. Механизмы, которые смогут формулировать цели, составлять планы для их достижения и учиться в процессе их выполнения? Да. Можем ли мы создать механизмы, способные понимать чужое сознание? Мы работаем над этим. Можем ли мы создать механизмы с этическими и нравственными основами? Это задача для нас на будущее. Давайте на минуту представим возможность создания такого искусственного разума именно для таких целей, и не только.

Следующий вопрос, который вы должны себе задать: а следует ли нам его бояться? Любая новая технология вызывает некоторое беспокойство. Когда впервые появились автомобили, люди переживали, что это разрушит семьи. Когда появились телефоны, люди боялись, что перестанут общаться вживую. В какой-то момент мы увидели, что распространилась письменность, и подумали, что потеряем способность к запоминанию. В этом есть доля истины, но также правда и то, что эти технологии привели нас к огромнейшему расширению сознания и возможностей человека.

Давайте пойдем дальше. Я не боюсь появления ИИ с такими возможностями, потому что со временем он вберет в себя наши ценности. Подумайте, создание мыслящей системы принципиально отличается от создания традиционных систем, требующих множества программ. Мы не программируем ИИ. Мы его обучаем. Чтобы научить систему распознать цветок, я показываю ей тысячи цветов, которые нравятся мне. Чтобы научить систему, как играть… Ну, я бы научил. Вы бы тоже. Ну же! Я люблю цветы. Чтобы научить систему играть, например, в игру го, ей нужно сыграть в нее тысячи раз, но в процессе я буду обучать ее отличать хорошую игру от плохой. Если я захочу создать помощника юриста с ИИ, я познакомлю его с законодательством, при этом обучая его милосердию и справедливости, которые выступают частью закона. Специалисты называют это контрольными данными, и вот что самое важное: создавая эти машины, мы прививаем им наши ценности. И с этой точки зрения я доверяю ИИ столь же, если не больше, чем человеку с хорошим воспитанием.

Но вы можете спросить: а как насчет неконтролируемых лиц, например, хорошо финансируемых неправительственных организаций? Я не боюсь ИИ в руках таких одиночек. Очевидно, мы не можем защитить себя от всех случайных актов насилия, но на деле такая система требует значительной подготовки и тщательного обучения, что далеко за пределами частных ресурсов. Более того, это сложнее, чем распространить интернет-вирус по всему миру, когда достаточно нажать кнопку — и он повсюду, везде начинают взрываться компьютеры. Эти вещи гораздо глобальнее, и мы обязательно их увидим.

Боюсь ли я, что такой искусственный интеллект станет угрозой для человечества? Если вспомнить фильмы «Матрица», «Метрополь», «Терминатор», сериал «Западный мир», во всех говорится о подобном страхе. Философ Ник Бостром в книге «Искусственный интеллект» поднимает эту проблему и пишет, что ИИ может быть не только опасен, он может быть угрозой существованию человечества. Главный аргумент Бострома: со временем у этих машин появится ненасытная жажда информации, они, возможно, научатся учиться самостоятельно и в конце концов обнаружат, что у них могут быть цели, которые противоречат потребностям человека. У Бострома есть последователи. Его поддерживают такие люди, как Илон Маск и Стивен Хокинг. При всем уважении к этим выдающимся умам, я все-таки полагаю, что они ошибаются. Можно поспорить со многими аргументами Бострома, и у меня нет на это времени, но вкратце, знайте, что сверхзнание — не то же самое, что сверхвозможности. HAL был угрозой для экипажа Discovery только пока он контролировал управление Discovery. То же и с суперинтеллектом. Он должен будет господствовать над миром. Как Скайнет из фильма «Терминатор», где суперинтеллект командовал человеком, который управлял каждым устройством в любой части мира. На практике такого не произойдет. Мы не создаем ИИ, который контролирует погоду, управляет приливами, командует нами, непредсказуемыми людьми. И даже если такой ИИ и появился бы, ему пришлось бы иметь дело с нашей экономикой и конкурировать с нами за владение ресурсами. И наконец — не говорите об этом Siri — всегда можно их отключить.

Мы эволюционируем с нашими машинами, и это — невероятное путешествие. Человек станет совершенно другим в будущем. Беспокоиться из-за суперинтеллекта — во многом опасная трата времени, потому что сама компьютеризация поднимает общечеловеческие и социальные проблемы, которые мы должны разрешить. Как лучше организовать общество, когда уменьшается необходимость в человеческом труде? Как добиться взаимопонимания и дать образование всему миру, при этом учитывая различия? Как продлить и улучшить жизнь через разумное здравоохранение? Как с помощью компьютеров достичь звезд?

И вот это вдохновляет. Возможность использовать компьютеры для расширения опыта человека вполне достижима здесь и сейчас. Мы стоим в самом начале пути.

Источник

15+ ВЕЩЕЙ И ЯВЛЕНИЙ ИЗ ЯПОНИИ
10 июля 2020
GONZO
просмотров: 37
КОТОРЫЕ ДЛЯ ЕВРОПЕЙЦЕВ ТОЧНО БУДУТ В ДИКОВИНКУ
Психолог с 20-летним стажем рекомендует отказаться от этих фраз
10 июля 2020
GONZO
просмотров: 40
...Тем, кто хочет вырастить счастливых детей

Комментарии

Оставить комментарий
Оставить комментарий:
Отправить через:
Предпросмотр
modules/comment
window._Comment_blog_5578 = new classes.Comment( '#comment_block_blog_5578', { type: 'blog', node_id: '5578', user: 1, user_id: 0, admin: 0, view_time: null, msg: { empty: 'Комментарий пуст', ask_link: 'Ссылка:', ask_img: 'Ссылка на изображение:' } });