Зачем нужен искусственный интеллект. Так что такое искусственный интеллект и и почему его не стоит бояться. Беспилотный автомобиль может быть запрограммирован на то, чтобы убить водителя


Сегодня человечество переживает четвертую промышленную революцию, которая характеризуется достижениями в области робототехники и беспилотной автомобильной техники, распространением умных бытовых приборов и т. д. И «впереди планеты всей» находится искусственный интеллект (ИИ), являющийся развитием автоматизированных компьютерных систем, которые могут соответствовать или даже превосходить людей в интеллекте. ИИ считается следующей глобальной технологией - настолько глобальной, что будущие технологии будут зависеть от нее. Но все не настолько гладко с искусственным интеллектом, есть ряд очень спорных моментов, по поводу которых есть весомые опасения.

1. Беспилотный автомобиль может быть запрограммирован на то, чтобы убить водителя


Предположим, человек едет по дороге. Затем внезапно на дорогу перед машиной выскакивает ребенок. Водитель нажимает на тормоза, но они не срабатывают. Тогда у него есть два варианта: или сбить ребенка, или свернуть в столб, при этом разбившись насмерть. Большинство людей согласны с тем, что предпочтут свернуть в столб, на верную смерть. Однако, теперь стоит представить, что автомобиль беспилотный, и человек едет в роли пассажира. Захочет ли он, чтобы авто само свернуло в столб, убив его... Большинство людей, которые согласились, что они сами готовы разбиться, спасая жизнь ребенка, заявили, что они не хотят, чтобы машина самостоятельно свернула в столб, убив их. Более того, они утверждают, что даже не купят такой автомобиль, если будут знать, что он подвергнет их риску в результате несчастного случая. Это приводит к закономерному вопросу: что нужно делать машине, и как ее нужно программировать. Что самое интересное, производители беспилотных автомобилей уклоняются от ответа на подобный вопрос.

2. Роботы могут потребовать равных прав с людьми


С нынешними тенденциями развития искусственного интеллекта вполне возможно, что роботы достигнут стадии самоосознания. Когда это произойдет, они могут потребовать равных прав с людьми. То есть, они будут нуждаться в жилищных и медицинских услугах, а также потребуют, чтобы им разрешили голосовать, служить в вооруженных силах и получать гражданство. Подобные результаты были опубликованы в качестве результата UK Office of Science и Innovation’s Horizon Scanning Center еще в 2006 году, когда ИИ был гораздо менее развит. Ожидалось, что машины достигнут уровня самоосознания через 50 лет (т.е. уже через 40 лет).

3. Автоматические роботы-убийцы


Под фразой «автоматические роботы-убийцы» обычно подразумевают роботов, которые могут убивать без вмешательства людей. При этом не учитывают дронов, потому что они контролируются людьми. Один из автоматических роботов-убийц, о которых сейчас идет речь, - это SGR-A1, сторожевая турель, разработанная Samsung Techwin (ныне Hanwha Techwin) и Корейским университетом. SGR-A1 напоминает огромную камеру наблюдения, за исключением того, что она оснащена мощным пулеметом, который может автоматически открывать огонь по цели. SGR-A1 уже используется в Израиле и Южной Корее, которая установила несколько турелей вдоль своей демилитаризованной зоны (DMZ) с Северной Кореей. Тем не менее, Южная Корея отрицает активацию автоматического режима, который позволяет машине самой решать, кого убивать, а кого нет. Вместо этого турели находятся в полуавтоматическом режиме, при котором они обнаруживают цели, после чего требуется подтверждение оператора-человека для того, чтобы начать огонь.

4. Военные роботы могут переходить на сторону противника


В 2011 году Иран захватил американский беспилотный самолет-невидимку RQ-170 Sentinel в неповрежденном состоянии. При этом беспилотник не был сбит - Иран утверждает, что самолет «приземлили» посредством подмены GPS-сигнала (заставив его «думать», что он находится на дружественной территории). Дроны, GPS и роботы основаны на компьютерах, и, как все знают, компьютеры можно взломать. Военные роботы ничем не будут отличаться, если они когда-либо будут применяться на поле боя. Фактически, есть все возможности, что вражеская армия попытается взломать роботов и использовать их против «хозяина». Автономные роботы-убийцы еще не получили широкого распространения, поэтому примеров их взлома пока нет. Но стоит себе только представить, что будет, если армия роботов внезапно повернется против своих хозяев.

5. Боты для распространения пропаганды в Twitter


Боты захватывают Twitter. Исследования Университета Южной Калифорнии и Университета Индианы показали, что около 15% (48 миллионов) из всех учетных записей Twitter управляются ботами (при этом Twitter настаивает на том, что этот показатель составляет около 8,5 процента). Чтобы внести ясность, не все эти боты плохие. Некоторые из них действительно полезны. Например, есть боты, которые информируют людей о стихийных бедствиях. Однако есть и такие, которые используются для пропаганды. В качестве примеров можно привести ботов, которые подталкивали избирателей к голосованию за Дональда Трампа во время выборов в 2016 году, а также избирателей Великобритании к тому, чтобы проголосовать за выход из Европейского Союза во время референдума Brexit 2016 года.

6. Машины займут рабочие места людей


Несомненно, машины однажды будут работать на большинстве мест, на которых сегодня работают люди. Однако, никто не знает, когда это случится и в какой степени. По словам ведущей консалтинговой и аудиторской фирмы PricewaterhouseCoopers (PwC), роботы оккупируют 21 процент рабочих мест в Японии, 30 процентов рабочих мест в Великобритании, 35 процентов рабочих мест в Германии и 38 процентов рабочих мест в Соединенных Штатах Америки в 2030 году. А к следующему столетию они займут более половины рабочих мест, доступных людям. Самым пострадавшим сектором будет транспортировка и хранение, где 56 процентов рабочей силы будут машинами. За ним следуют производственный и розничный сектора, где машины займут более 46 и 44% всех имеющихся вакансий. Говоря о том «когда это случится», предполагается, что к 2027 году машины будут управлять грузовиками, а к 2031 году работать в розничных магазинах. К 2049 году они будут писать книги, а к 2053 году выполнять операции. Только несколько профессий не «пострадают» от нашествия машин. В качестве одного из примеров можно привести вакансию священника.

7. Роботы научились обманывать


Подобно своим создателям, роботы учатся обманывать. В ходе одного из экспериментов исследователи из Технологического института Джорджии в Атланте разработали алгоритм, позволяющий роботам решать, следует ли обманывать других людей или роботов. Если роботы решали пойти по пути обмана, исследователи включали алгоритм, позволяющий роботу решить, как обманывать людей и роботов, уменьшая вероятность того, что человек или робот узнают об обмане. О подробных результатах эксперимента информации не поступало, кроме того, что он был успешен. Этот эксперимент был организован Управлением США по морским исследованиям, что означает, что потенциально лгущие роботы могут применяться в военных целях.

8. Рынок ИИ монополизирован


Рынок ИИ монополизируется. Крупные компании покупают небольшие старт-апы по разработке ИИ с угрожающей скоростью. При нынешних тенденциях ИИ будет окончательно доработан очень небольшим количеством корпораций. По состоянию на октябрь 2016 года в отчетах указывалось, что крупные компании, такие как Apple, Facebook, Intel, Twitter, Samsung и Google, приобрели 140 предприятий по разработке искусственного интеллекта в течение последних пяти лет. В первые три месяца 2017 года крупные технологические компании купили 34 старт-апа ИИ. Что еще хуже, они также платят огромные деньги, чтобы нанять лучших ученых в области искусственного интеллекта.

9. ИИ превзойдет людей в интеллекте


Искусственный интеллект подразделяется на две группы: сильный и слабый ИИ. ИИ, который существует сегодня, классифицируется как слабый ИИ. Он включает в себя «умных помощников» и компьютеры, которые побеждают шахматных гроссмейстеров с 1987 года. Разница между сильным и слабым ИИ - это способность рассуждать и вести себя как человеческий мозг. Слабый ИИ обычно выполняет то, на что его запрограммировали, а сильный ИИ обладает сознанием и способностью мыслить, как человек. Он не ограничивается рамками своей программы и может сам решать, что делать, а чего не нужно делать без участия человека. На данный момент сильного ИИ не существует, но ученые предсказывают, что он должен появиться примерно через десять лет.

10. ИИ может уничтожить людей


Есть опасения, что в мире может наступить Апокалипсис, точно так же, как это произошло в фильме «Терминатор». Предупреждения о том, что ИИ может уничтожить людей, исходят не от каких-то «диванных аналитиков» или теоретиков заговора, а от таких выдающихся профессионалов, как Стивен Хокинг, Илон Маск и Билл Гейтс. Билл Гейтс считает, что ИИ станет слишком умным, чтобы оставаться под контролем людей. Аналогичного мнения придерживается Стивен Хокинг. Он не думает, что ИИ внезапно устроит «кровавую баню». Скорее, он полагает, что машины уничтожат людей, став слишком компетентными в том, что они делают. Конфликт людей с ИИ начнется с того момента, когда его цель больше не будет совпадать с нашей. Илон Маск сравнивает распространение ИИ с «вызовом демонов». Он считает, что это самая большая угроза для человечества. Чтобы предотвратить Апокалипсис и вымирание людей, он предложил, чтобы правительства начали регулировать развитие ИИ, прежде чем коммерческие компании «сделают большую глупость».

К слову, о достижения инженеров компании Илона. Совсем недавно , тем самым доказав, что подобные автомобили очень скоро заменят привычные машины на двигателе внутреннего сгорания.

16.11.2016

-

Искусственный интеллект (ИИ) в связке с робототехникой – одна из наиболее обсуждаемых сегодня тем. Однако область находится в самом начале пути своего развития. «Ещё не лето, но уже ранняя весна», – образно выразился ректор Сколтеха, академик Александр Кулешов. На какой стадии развития находятся технологии ИИ? Что не смогут заменить роботы? Что это, вообще, такое – искусственный интеллект? Всё это обсудили учёные, инженеры и представители бизнеса на конференции Skolkovo.AI 14 ноября.

Искусственный интеллект – это научное направление, целью которого является создание искусственных устройств, способных к обучению или направленному поведению и рациональным рассуждениям

Что такое искусственный интеллект?

Почти на каждом из выступлений конференции вставал вполне очевидный вопрос о том, что же такое «искусственный интеллект». Докладчики, эксперты этой области давали диссонирующие варианты ответа, начиная с «технологий, решающих элементарные задачи» и заканчивая «технологиями, решающими сложные задачи». Такая «разбросанность» говорит о том, насколько ещё непрочен фундамент этой области исследований и насколько по-разному люди видят границы того, чему посвящают жизнь.

Точные научные формулировки – хлеб учёных. Поэтому определение ИИ надёжнее всего было доверить президенту Российской ассоциации искусственного интеллекта д.ф. - м.н. профессору Геннадию Осипову:

«Искусственный интеллект – это научное направление, целью которого является создание искусственных устройств, способных к обучению или направленному поведению и рациональным рассуждениям. Нерациональное рассуждение и неразумное поведение нас не интересует, а вот для человека это характерно».

ИИ – здесь и сейчас

Теперь можно осмотреться и понять, что на сегодняшний день относится к искусственному интеллекту.

Например, МакАвто, в котором начали применять ИИ. Вместо того чтобы клиент общался с оператором, устанавливают устройство, которое записывает его заказ с учётом уличного шума и громких детских голосов из машины. Добиться чистой расшифровки получается благодаря достаточно сложным технологиям ИИ.

The Economist использовало платформу искусственного интеллекта Microsoft для интерактивной версии дебатов Трампа и Клинтон – читателям (или, скорее, зрителям) предлагался видеоряд с описанием эмоций кандидатов во время политических прений, созданный с помощью сканирования и анализа выражений их лиц.

Ещё один пример – система Cocoon, которая с помощью микрофона слушает и запоминает звуковой шаблон дома. После этого она уведомляет клиента о том, что происходило в доме в отсутствие членов семьи.

Через десятилетия эти технологии, возможно, покажутся нам примитивными. Но ведь и способность компьютера посчитать «2х2» сейчас язык не повернётся назвать хайтеком, хотя когда-то это было прорывом.

Основная задача искусственного интеллекта

«Мы перекладываем на машины ограничения. Мы не могли обладать всеми знаниями мира, потому что не могли прочитать и запомнить всю информацию, так как наши «канал» и «носитель» ограничены. Сейчас мы это можем, потому что у нас есть экстендеры в виде Google, Wikipedia и прочего.

Теперь нам необходимо не обладание знаниями, а их добывание. То есть это совершенно другой тип мышления, который при том же количестве нейронов в мозгу позволяет суммарно обладать значительно большим количеством знаний, находящихся в операционном управлении.

Иными словами, человека интересует расширение своих возможностей и увеличение доли своей свободы», – рассуждает ВРИО гендиректора РВК Евгений Кузнецов.

Как писал в одном из своих трудов С.П. Капица, в мире нет проблемы нехватки еды и ресурсов, но есть проблема их распределения.

«В XIX веке стояла проблема создания ресурсов (строили фабрики и осваивали новые способы производства). XX век – парадигма контроля и порождение потока цифровой информации. В XXI веке задача заключается не в том, чтобы производить и контролировать вещи, не в том, чтобы собирать информацию. Задача состоит в фильтрации и принятии решений на основе собранной информации. Тот ИИ, который мы по-тихоньку начинаем создавать, как раз эту проблему решает», – добавил руководитель робототехнического центра Фонда «Сколково» Альберт Ефимов.

«Нужны ли мы нам?»

Интеллект машин становится всё более сложным, в связи с чем встаёт вопрос: нужны ли тогда будут люди? В 2013 году Oxford e-Research Centre опубликовал исследование «Работа будущего» о компьютеризации различных профессий, рассмотрев более 700 специальностей. В рамках работы исследователи выделили три направления, которыми человек отличается от машины. Это креативность, социальное взаимодействие с окружающими и манипуляция объектами внешнего мира. «Ответ на вопрос «нужны ли мы нам» заключается в следующем: да, нужны, но только тогда, когда выполняем эти три требования. Таким образом, по мнению учёных, профессия садовника, например, не умрёт никогда, так как подходит всем трём условиям», – делает вывод Ефимов.

Наука и технологии России

Все смотрели фильмы о «Терминаторе», где суперкомпьютер Скайнет обрел свободу воли и решил уничтожить человечество. Чего-то подобного от разработки ИИ ожидают Илон Маск и Стивен Хокинг. Разбираемся, правдивы ли их опасения.

Что такое искусственный интеллект? Почему важно понимать, что это такое? Почему сегодня все о нем говорят?

Если вы читаете прессу, вы наверняка знаете, что с помощью именно этой технологии работают виртуальные помощники Amazon и Google, и что вскоре машины отберут у людей все рабочие места (на самом деле, не факт). Но при этом вряд ли вы отчетливо понимаете, что такое искусственный интеллект, и правда ли роботы нас всех поработят. Эта статья поможет разобраться во всех вопросах.

Что такое искусственный интеллект

Искусственный интеллект (ИИ) - это компьютерная программа, в которую встроен механизм обучения. Получив новые знания, она позже использует их для принятия решения в новой ситуации, как это делают люди. Исследователи, создающие такие программы, пытаются заставить код считывать изображения, текст, видео или звук, и чему-то учиться на основе этой информации. Когда это происходит, полученное знание можно использовать в другом ситуации. Если алгоритм научился распознавать чье-то лицо, позже его можно распознать на фотографиях из Facebook. Применительно к современному ИИ обучение часто называют «тренировкой».

Люди с рождения умеют оперировать сложными идеями: если мы увидим яблоко, то впоследствии сможем узнать и совсем другое, непохожее на первое. Машины же очень буквальны, - у компьютера нет концепции «похожести», - и цель разработок в области искусственного интеллекта как раз и состоит в том, чтобы сделать машины менее буквальными. Машина легко может найти точные дубликаты фотографий яблока или найти два одинаковых предложения в тексте, но чтобы работать с визуальным образом яблока, чтобы распознать изображение того же яблока под другим углом или с другим светом, нужен ИИ. Это обобщение или формирование идеи, основанной на сходстве данных, и позволяет видеть общее в том числе между вещами, с которыми ИИ раньше не сталкивался.

Алекс Рудницкий, профессор компьютерных наук Университета Карнеги-Меллон, говорит: «Цель в том, чтобы облечь сложное человеческое поведение в форму, которую можно обработать вычислительным способом. А это, в свою очередь, позволяет нам создавать системы, способные выполнять сложные действия, полезные для людей».

Далеко ли зашла разработка ИИ

Исследователи ИИ все еще работают над самыми основами. Как научить компьютер распознавать то, что он видит на картинке или в видео? Когда это удастся, нужно двигаться от распознавания к пониманию. Было бы здорово не только узнать, что на картинке яблоко, но и разобраться, что яблоко съедобно, что оно как-то связано с апельсинами и грушами, что люди едят яблоки и используют их при приготовлении яблочного пирога. А еще неплохо бы знать про Мичурина, молодильное яблочко и тому подобные вещи. Кроме того, есть проблема с пониманием языка, поскольку у многих слов существует несколько значений, различимых только в контексте, и все мы по-разному выражаем свои мысли. Как компьютеру охватить это текучее, непрерывно меняющееся явление?

В разных областях скорость прогресса ИИ очень разная. Например, сейчас очень быстро продвигается вперед компьютерное зрение, то есть способность распознавать изображения, при этом с пониманием естественного языка дела обстоят гораздо хуже. В этих областях развивают так называемый «узкий интеллект» - такой ИИ эффективен при работе с изображением, звуком или текстом, но не может воспринимать сразу много разнородных сигналов (при этом у человека мы наблюдаем «общий интеллект»). Многие исследователи надеются, что достижения в отдельных областях помогут понять общие принципы машинного обучения, что все же позволит создать универсальный ИИ.

Почему ИИ - это так важно

Как только ИИ научился узнавать на картинке яблоко или распознавать кусочек речи на аудиозаписи, его уже можно использовать в других программах для принятия решений, для которого в противном случае понадобился бы человек. Например, можно автоматически отмечать друзей на фотографиях в Facebook - иначе это пришлось бы делать вручную. Если речь идет о беспилотном автомобиле или системе помощи водителю, то можно распознавать другие автомобили и дорожные знаки, а в сельском хозяйстве - разбирать урожай, удаляя гнилые плоды.

Эти задачи, основанные только на распознавании изображений, традиционно выполнялись либо пользователем, либо кем-то из компании, предоставляющей программное обеспечение. Если задача экономит время пользователя, это ее конкурентное преимущество, а если она позволяет освободить время сотрудника или делает его работу полностью ненужной, это снижает затраты бизнеса.

Кроме того, есть задачи, которые просто невозможно сделать без машин: например, это обработка аналитики продаж в размере миллионов записей за считанные минуты. Теперь такие задачи выполняются быстро и дешево. Здесь мы учим машину делать то, что раньше делали люди, и, конечно, экономическая выгода от таких нововведений весьма велика.

Джейсон Хонг, профессор Лаборатории компьютерного взаимодействия Университета Карнеги-Меллон, утверждает, что, хотя ИИ может выполнять задачи за человека, он также способен создавать новые виды занятости.

«Автомобили полностью сменили лошадей, но в среднесрочной и долгосрочной перспективе их появление привело к огромному разнообразию задачи и производства - появились фуры, небольшие грузовики, минивэны, кабриолеты и так далее. Аналогичным образом в краткосрочной перспективе системы ИИ станут прямой заменой человека применительно к рутинным задачам, но в среднесрочной и долгосрочной перспективе мы увидим, что это породило новое разнообразие», - говорит он.

Готлиб Даймлер и Карл Бенц не думали о том, как автомобиль изменит облик городов, не думали о загрязнении окружающей среды или об эпидемии ожирения в развитых странах. Так и нам пока трудно оценить долгосрочное влияние этого фактора.

Почему ИИ стал развиваться сейчас, а не 30 или 60 лет назад

На самом деле, многим идеям о том, как должно быть устроено обучение ИИ, даже больше 60 лет. Еще в 1950-х годах ученые Фрэнк Розенблатт, Бернард Видроу и Марчиан Хофф впервые занялись математическим выражением устройства нейронов в соответствии с представлениями тогдашней биологии. Да, одним уравнением любую проблему не решить, но что если подобно мозгу использовать множество связанных уравнений? Исходные примеры были простыми: проанализировать наборы единиц и нулей, поступающих по цифровой телефонной линии, и предсказать, что будет дальше.

На протяжении многих десятилетий в информатике была распространена точка зрения, что никакие сложные проблемы таким образом решить не удастся. Тем не менее сегодня эта концепция лежит в основе большинства систем работающих в этой области крупных компаний: Google, Amazon, Facebook, Microsoft. Теперь, оглядываясь назад, ученые понимают, что компьютеры были недостаточно сложны для моделирования миллиардов нейронов нашего мозга, и что для обучения нейронных сетей требуются огромные объемы данных.

И эти два фактора, вычислительная мощность и достаточное количество данных, появились только в последние 10 лет.

В середине 1990-х годов компания Nvidia, известный производитель видеокарт, обнаружила, что ее графические процессоры хорошо подходят для работы нейронных сетей, и начала выпускать карты, специально приспособленные для работы с ИИ. Было выяснено, что работа с более быстрыми и сложными нейронными сетями приводит к значительному улучшению точности ответов.

Затем в 2009 году исследователь ИИ Фей-Фей Ли опубликовала базу данных под названием ImageNet, которая содержала более 3 млн систематизированных изображений с подписями. Она считала, что если у алгоритмов будет больше примеров, это поможет им освоить более сложные идеи. В 2010 году Ли запустила конкурс ImageNet, а к 2012-му другой исследователь Джефф Хинтон использовал эту базу изображений для обучения нейронной сети - и превзошел все другие приложения с огромным перевесом в точности, более 10%.

Как и предсказывала Ли, количество данных оказалось ключевым параметром. Хинтон также устраивал из нейронных сетей конвейер - одна находила на изображениях фигуры, другая текстуры и т. д. Сегодня это называется глубокими нейронными сетями или глубоким обучением, и, когда вы читаете в новостях об очередном успехе ИИ, речь идет о подобной системе.

Как только в технологической индустрии увидели результаты ученых, начался бум. Исследователи, десятилетиями работавшие над глубоким обучением в относительной безвестности, стали новыми рок-звездами, и к 2015 году у Google было уже более тысячи проектов с использованием машинного обучения.

Нужно ли бояться ИИ

Все смотрели «Терминатора» и готовы испугаться всемогущего Скайнета. Среди ученых потенциальный Скайнет называют суперинтеллектом или общим искусственным интеллектом, подразумевая программу, которая во многих отношениях превосходит человеческий мозг. Поскольку компьютерные системы можно масштабировать - то есть можно создать множество простых и быстрых компьютеров и связать их между собой, - существуют опасения, что такой суперинтеллект сможет расти бесконечно, оставив людей далеко позади. А будучи таким умным, он выйдет из-под контроля и обойдет любые попытки людей этот контроль вернуть. Такой апокалиптический сценарий рисуют нам некоторые из лучших умов современности, например Илон Маск и Стивен Хокинг. Маск, в частности, говорил, что «большинство ведущих исследователей ИИ недооценивают проблему „джинна в бутылке“, несмотря на свой несомненный интеллект в некоторых областях».

Есть и другая точка зрения. Янн Лекун, глава лаборатории исследования искусственного интеллекта Facebook, говорит, что даже если ученым удастся сделать машину, способную обучаться самым разным вещам и организовывать это понимание в картину мира, совершенно не факт, что у такого компьютера появятся собственные желания, воля или инстинкт самосохранения.

«Человеческое поведение - насилие в ответ на угрозу, ревность, желание единоличного доступа к ресурсам, симпатия к родственникам и антипатия к незнакомцам и т. д. - сформировалось у наших предков в ходе эволюции. У разумных машин не будет предпосылок для подобного поведения, если мы сами явно их не создадим», - писал он на сайте Quora.

Нет причин считать, что компьютер сочтет человечество угрозой, поскольку для компьютера не существует понятия угрозы. Да, можно задать параметры, благодаря которым компьютер будет вести себя так, как будто у него есть инстинкт самосохранения, но на самом деле его у него нет.

Эндрю Нг, один из основателей Google Brain и бывший глава направления ИИ в Baidu, любит говорить: «Я не переживаю о злобном ИИ, как не переживаю из-за перенаселенности Марса».

Впрочем, повод для опасений есть - и это человеческий фактор. Было показано, что ИИ очень легко воспринимает человеческое смещение в оценках из данных, на которых он учится. Это может быть какая-то безвредная предрасположенность - например, он может чаще распознавать на картинках кошек, чем собак, потому что его так научили. Но представим себе, что ИИ перенял у людей их стереотипы, и, например, связал понятие «врач» с белыми мужчинами в большей степени, чем с людьми другого пола или расы. Если представить себе, что такой ИИ отвечает за найм врачей, он будет отдавать несправедливое предпочтение некоторым кандидатам.

И это реальность. Исследование издания ProPublica показало, что алгоритмы, используемые для определения приговора преступникам, отражали расовую предубежденность и предлагали назначить более суровое наказание не-белым подсудимым. Дело в том, что при сборе информации о здоровье часто исключают женщин, особенно беременных, и в результате медицинские рекомендации, выработанные на основе таких неполных данных, оказываются слабо применимы к значительному числу пациентов. Таким образом, чтобы доверить машинам принимать решения, которые раньше требовали человеческого присутствия, нужно следить, чтобы это происходило в соответствии с нашей этикой и представлениями о справедливости.

Проблема в том, что даже если вы поняли, что алгоритм предвзят, чтобы его исправить, нужно найти причину. Но поскольку глубокое обучение требует миллионов связанных вычислений, продраться через этот клубок и выяснить, каков вклад того или иного решения в общий результат, невероятно сложно. Эта проблема особенно остро стоит в таких областях как программирование беспилотных автомобилей, ведь каждое решение на дороге - это вопрос жизни и смерти. Первые исследования в этой области дают надежду, что мы сможем разобраться в механизмах работы построенных нами машин. Но пока что понять, почему ИИ, разработанный Facebook, Google или Microsoft, принял то или иное решение, просто невозможно.

Подготовила Евгения Сидорова

  • Перевод

Истерия вокруг будущего искусственного интеллекта (ИИ) захватила мир. Нет недостатка в сенсационных новостях о том, как ИИ сможет лечить болезни , ускорять инновации и улучшать творческий потенциал человека. Если читать заголовки СМИ, вы можете решить, что уже живёте в будущем, в котором ИИ проник во все аспекты общества.

И хотя нельзя отрицать, что ИИ открыл нам богатый набор многообещающих возможностей , он также привёл к появлению мышления, которое можно охарактеризовать, как веру во всемогущество ИИ. По этой философии, при наличии достаточного количества данных, алгоритмы машинного обучения смогут решить все проблемы человечества .

Но у этой идеи есть большая проблема. Она не поддерживает прогресс ИИ, а наоборот, ставит под удар ценность машинного интеллекта, пренебрегая важными принципами безопасности и настраивая людей на нереалистичные ожидания по поводу возможностей ИИ.

Вера во всемогущество ИИ

Всего за несколько лет вера во всемогущество ИИ пробралась из разговоров технологических евангелистов Кремниевой долины в умы представителей правительств и законодателей всего мира. Маятник качнулся от антиутопического представления об уничтожающем человечество ИИ к утопической вере в пришествие нашего алгоритмического спасителя .

Мы уже видим, как правительства обеспечивают поддержку национальным программам развития ИИ и соревнуются в технологической и риторической гонке вооружений , чтобы получить преимущество в бурно растущем секторе машинного обучения (МО). К примеру, британское правительство пообещало вложить £300 млн в исследования ИИ, чтобы стать лидером этой области. Очарованный преобразовательным потенциалом ИИ, французский президент Эмманюэль Макрон решил превратить Францию в международный центр ИИ . Китайское правительство увеличивает свои возможности в области ИИ с помощью государственного плана по созданию китайской ИИ-индустрии объёмом в $150 млрд к 2030 году. Вера во всемогущество ИИ набирает обороты и не собирается сдаваться.

Нейросети – легче сказать, чем сделать

В то время как многие политические заявления расхваливают преобразующие эффекты надвигающейся "революции ИИ ", они обычно недооценивают сложности внедрения передовых систем МО в реальном мире.

Одна из наиболее многообещающих разновидностей технологии ИИ – нейросети . Эта форма машинного обучения основывается на примерном подражании нейронной структуры человеческого мозга, но в гораздо меньшем масштабе. Многие продукты на основе ИИ используют нейросети, чтобы извлекать закономерности и правила из больших объёмов данных. Но многие политики не понимают, что просто добавив к проблеме нейросеть, мы не обязательно тут же получим её решение. Так, добавив нейросеть к демократии, мы не сделаем её мгновенно менее дискриминированной, более честной или персонализованной.

Бросая вызов бюрократии данных

Системам ИИ для работы нужно огромное количество данных, но в госсекторе обычно не бывает подходящей инфраструктуры данных для поддержки передовых систем МО. Большая часть данных хранится в офлайн-архивах. Небольшое количество существующих оцифрованных источников данных тонут в бюрократии. Данные чаще всего размазаны по различным правительственным департаментам, каждому из которых для доступа требуется особое разрешение. Кроме всего прочего, госсектору обычно не хватает талантов, оснащённых нужными техническими способностями, чтобы в полной мере пожать плоды преимуществ ИИ .

По этим причинам связанный с ИИ сенсационализм получает множество критики. Стюарт Рассел, профессор информатики в Беркли, давно уже проповедует более реалистичный подход, концентрирующийся на простейших, повседневных применениях ИИ, вместо гипотетического захвата мира сверхразумными роботами. Сходным образом профессор робототехники из MIT, Родни Брукс, пишет , что «почти всем инновациям в робототехнике и ИИ требуется гораздо, гораздо больше времени для реального внедрения, чем это представляют себе как специалисты в этой области, так и все остальные».

Одна из множества проблем внедрения систем МО состоит в том, что ИИ чрезвычайно подвержен атакам . Это значит, что злонамеренный ИИ может атаковать другой ИИ, чтобы заставить его выдавать неправильные предсказания или действовать определённым образом. Многие исследователи предупреждали о том, что нельзя так сразу выкатывать ИИ, не подготовив соответствующих стандартов по безопасности и защитных механизмов . Но до сих пор тема безопасности ИИ не получает должного внимания.

Машинное обучение – это не волшебство

Если мы хотим пожать плоды ИИ и минимизировать потенциальные риски, мы должны начать размышлять о том, как мы можем осмысленно применить МО к определённым областям правительства, бизнеса и общества. А это значит, что нам необходимо начать обсуждения этики ИИ и недоверия многих людей к МО.

Самое важное, нам нужно понимать ограничения ИИ и те моменты, в которые люди всё ещё должны брать управление в свои руки. Вместо того, чтобы рисовать нереалистичную картину возможностей ИИ, необходимо сделать шаг назад и отделить реальные технологические возможности ИИ от волшебства.

В медицине тоже признают, что ИИ нельзя считать решением всех проблем. Программа "IBM Watson for Oncology " была ИИ, который должен был помочь докторам бороться с раком. И хотя она была разработана так, чтобы выдавать наилучшие рекомендации, экспертам оказывается . В результате программу закрыли в большинстве госпиталей, где проходили её пробные запуски.

Схожие проблемы возникают в законодательной области, когда алгоритмы использовались в судах США для вынесения приговоров. Алгоритмы подсчитывали значения рисков и давали судьям рекомендации по приговорам. Но обнаружилось, что система усиливает структурную расовую дискриминацию, после чего от неё отказались.

Эти примеры показывают, что решений на основе ИИ для всего не существует. Использование ИИ ради самого ИИ не всегда оказывается продуктивным или полезным. Не каждую проблему лучше всего решать с применением к ней машинного интеллекта. Это важнейший урок для всех, кто намеревается увеличить вложения в государственные программы по развитию ИИ: у всех решений есть своя цена, и не всё, что можно автоматизировать, нужно автоматизировать.

Теги: Добавить метки

Пытаются приблизиться к ней. Но что представляет собой искусственный интеллект с точки зрения философа? Т&P публикуют статью доктора философских наук Сергея Голенкова, который с помощью Канта и Делеза ставит под сомнение саму возможность создания мыслящей машины.

Проблема сознания заключается в парадоксальной ситуации: мы, разумные существа, обладаем сознанием, оно у нас есть, но мы не знаем что такое сознание. Мамардашвили, определяя эту ситуацию, писал: «Сознание - это парадоксальность, к которой невозможно привыкнуть». Раскрывая особенность парадоксальности сознания, он указывал на две трудности в изучении сознания. Первая состоит в том, что само понятие «сознание» является предельным философским понятием, таким как понятие «бытие». А такого рода понятия не поддаются классическому родо-видовому определению. Другая трудность проистекает из того, что сознание «весьма странное явление, которое есть и которое в то же время нельзя ухватить, представить как вещь». Однако, есть еще одно обстоятельство, делающее проблему сознания особенно сложной. Дело в том, что само сознание всегда экранировано содержанием сознания. Поясню подробнее суть этой трудности.

В свое время Кант обсуждая вопрос о природе единства содержания мысли, писал в «Критике чистого разума», что условием единства содержания нашей мысли является «трансцендентальное единство апперцепции». О чем у него здесь идет речь. Вот в руке у меня лист бумаги. Эту ситуацию содержательно можно выразить следующим образом: «сейчас я держу в руке белый лист бумаги». Это словесное выражение будем считать содержанием мысли. В этой мысли соединены содержательно различные элементы. В ней присутствует представление о времени (слово «сейчас»), представление обо мне («я»), об одном из органов моего тела («рука»), представление о некой вещи («лист бумаги»), представление о свойстве этой вещи («белый»), представление о пространственном расположении листа бумаги относительно моего тела («в руке»). Кроме выраженных представлений, в этой мысли имплицитно содержаться, то есть словесно не выражены, и другие элементы ситуации, например, качество листа бумаги. Очевидно, что это все качественно (и потому содержательно) разные представления. Одни источником имеют тактильные ощущения (качество бумаги: гладкая/шероховатая), другие моторно-двигательные (держу в руке), третьи зрительные (белый цвет листа) и так далее.

Кант задает вопрос, что позволяет разным представлениям, из которых состоит всякая мысль, образовывать целое единство этой мысли? И он отвечает - трансцендентальное единство апперцепций. Это означает, что все данное в наглядном представлении многообразие объединяется при помощи трансцендентальной апперцепции в понятие объекта. Кант говорит, что это объединение есть акт, который сопровождает всякую содержательную мысль и может словесно выражен так: «Я мыслю». Иными словами, чтобы мысль о том, что сейчас я держу в руке белый лист бумаги, не распадалась на различные по содержанию представления, а была одной мыслью, эта мысль должна всегда сопровождаться актом мышления «Я мыслю».

Это «Я мыслю» и есть действие сознания в нас. Но трудность познания этого акта состоит в том, что акт «Я мыслю» всегда экранирован содержанием сознания «сейчас я держу в руке белый лист бумаги». И даже если мы обратим внимание на сам этот акт, то он становится содержательной мыслью, которая, чтобы быть единой, сама должна сопровождаться актом «Я мыслю». В этом случае мы имеем следующее словесное выражение «Я мыслю, что Я мыслю», где второе «Я мыслю» уже содержание мысли, для которой условием является акт первого «Я мыслю». Несмотря на то, что оба эти выражения одинаково составлены из одинаковых слов, это, несомненно, две разные «вещи». Первая выражает акт мысли, вторая - ее содержание. И для их познания нужны разные методы и инструменты. Здесь мы попадаем в ситуацию, которая хорошо известна в физике элементарных частиц (квантовой механике), когда невозможно одновременно, одними и теми же приборами, одними и теми же методами описать положение элементарной частицы и ее импульс (то есть указать вектор ее движения и скорость). Либо мы знаем, где находиться частица, но не знаем ее скорости в данный момент и направление движения, либо знаем вектор и скорость, но не знаем ее место положения.

Акт «Я мыслю» представляет собой некое существование, соотнесенное с сознанием, которое Мамардашвили и Пятигорским было названо «состояние сознания». Термином «состояние сознания» они обозначали по преимуществу независимое от любого мыслительного содержания «состояние нашего психофизиологического механизма, соотнесенного с сознанием». Замечу, что состояние, описываемое термином «мыслю» («Я мыслю»), принадлежат к тому же классу, что состояния «наблюдаю», «вспоминаю», «воспринимаю», «воображаю» и тому подобное. Это все состояния, так или иначе, связанны с сознанием, сознание в них присутствует.

Присмотримся теперь внимательнее к этому классу состояний сознания. В качестве примера рассмотрим состояние сознания «Я наблюдаю стол». Что мы в нем можем обнаружить? Прежде всего, то, что оно по своему составу не однородно. Есть элемент в этом состоянии, который связан с внешне данной вещью, данность которой определяет содержание нашего состояния. То, что мы наблюдаем (мыслим, вспоминаем и так далее) - стол. В акте наблюдения то, что обозначено термином «стол» составляет содержание этого акта, этого состояния сознания. И это содержание наблюдения (содержание состояния сознания) не определено внешней вещью. Стол, как наблюдаемое мною тело, не задает содержание того, что именно я наблюдаю.

Отсюда следует, что содержание наблюдения тела как явления осознаваемого, определяется не самим этим телом, а полностью задается сознанием. Особо подчеркну, не существование тела задается сознанием, а содержание наблюдения тела. Это означает, что в состоянии сознания «Я наблюдаю стол», стол выступает содержательным элементом наблюдения и, стало быть, находится «в» сознании как содержание наблюдения. Следуя традиции после Гуссерля, наблюдаемый стол является интенциональным предметом. Интенциональный предмет, в нашем случае «стол», составляет содержание сознания, он коррелятивен с реально существующим столом, но задан сознанием.

Обратим внимание на то, что пребывание в состоянии «Я наблюдаю стол» содержит в себе два «элемента»: реальный стол и «интенциональный» стол. А между ними зазор. И этот зазор непроходим для мысли, точнее, он не может быть преодолен интеллектуальными средствами, так как в него включены элементы, не принадлежащие мышлению. Какие это элементы? Мамардашвили и Пятигорский в своей работе называли один такой элемент - это «наш психофизиологический механизм». Очевидно, что без него невозможно состояние «Я наблюдаю стол». Укажу еще на ряд таких элементов. Состояние наблюдения (восприятия, воображения, мышления и так далее) - это состояние нашего существования, бытийное состояния. Специфика нашего существования - сознательного существования - в философской традиции после Хайдеггера определяется термином «экзистирование». Экзистирование - это существование способом понимания собственного существования. В чем специфика такого существования, «существования пониманием»? Что такое понимание?

Понимание можно рассмотреть как «внимание», «внятие», «принятие», «впускание», «ассимиляцию» некоего сущего в себя. Когда я понимаю некое сущее, например, когда я понимаю (или не понимаю) предмет своего наблюдения как стол, то тем самым я принимаю (или не принимаю) это сущее как/в содержание моего состояния. Иначе говоря, понимание здесь выступает своеобразным испытанием как модусом моего бытия, экзистирования. И этот модус по природе своей амбивалентен. С одной стороны, понимая (внимая, принимая и так далее) сущее, я испытываю себя на способность понять сущее, а, с другой - я испытываю само сущее на его истину, выведывая ее у сущего. Понимание предстает в этом случае в виде проверки на способность быть и себя, и сущего. Иными словами, в состоянии сознания в качестве необходимого элемента включены не только интеллектуальные процедуры, но и мои бытийные (и онтологические, и онтические) характеристики. В частности в понимании «участвует» такая структура как бытие-с-другим. Рассмотрим подробнее, каким образом эта бытийная структура определяет состояния сознания и его содержания.

В качестве примера такого влияния сошлюсь на анализ восприятия - а это состояние, как я уже отмечал выше, того же класса, что и наблюдение - в работе Жиля Делеза «Мишель Турнье и мир без Другого». В этой работе Делез показывает как другой в качестве элемента совместного бытия определяет мое восприятие. Прежде всего, отмечает Делез, другой оказывает организующее воздействие на мое поле восприятия предметов и идей. Это организующее воздействие проявляется в том, что узнаю или чувствую воспринимаемый предмет в качестве определенного предмета, то есть такого, который отличается от другого предмета. Я могу не знать и не понимать существа отличия одного предмета от другого. Я лишь фиксирую само отличие. Вот именно для восприятия отличия, границы другой и предоставляет мне возможность различения. Он выступает условием способности различения, разграничивания.

Рассмотрим этот момент подробнее. Разделим акт восприятие на последовательные шаги от начала до узнавания предмета: акт получения перцептивных ощущений от воспринимаемого предмета (выявление фигуры на фоне); акт «фокусирования» внимания на выделенном предмете (все остальные предметы сливаются в неразличимый фон); акт терминирования выделенного предмета, его словесное обозначение и акт интерпретации (то есть «узнавания» предмета), как акт включения значения (оно фиксировано термином) предмета в систему уже существующих значений (например, в систему языка). Таким образом, мы имеем четыре шага определения предмета в восприятии. Отвлечемся сейчас от того, что можно по-иному членить этот процесс. Здесь важно, что этот процесс имеет шаговую (или звеньевую, или этапную - или какую-нибудь еще) структуру. Важно подчеркнуть то обстоятельство, что между шагами, звеньями, этапами существуют зазоры. Они важны как раз тем, что в этих зазорах пребывает нечто, что, с одной стороны, не является структурным элементом восприятия, а с другой - без них восприятие не может быть реализовано. Другой как раз и выступает необходимым элементом восприятия. Поясню этот тезис.

Посмотрим на зазор, который находиться между актом сосредоточения внимания на предмете и актом называния предмета, наделения его именем. Для того чтобы этот переход состоялся необходимо, чтобы уже существовали слова, существовала речь, существовал язык, существовала культура называния, культура говорения. А все это возможно, только если существует другой. Более того, существование другого уже необходимо между первым и вторым шагом, чтобы состоялся процесс узнавания воспринятого предмета. Это Делез и имеет в виду, когда говорит, что другой выступает условием различения предметов и идей.

Фигуру другого в процессе восприятия нельзя интерпретировать «ни как объект в поле моего восприятия, ни как субъект меня воспринимающий» (хотя эмпирически, если другой человек находится в момент моего восприятия, он может быть такими объектом и субъектом). Так чем же в таком случае является другой? Делез пишет: «… Это прежде всего структура поля восприятия, без которой поле это в целом не функционировало бы так, как оно делает». Без этой структуры - структуры другого - восприятие не могло бы состояться. Эту структуру другого он называет «априорный Другой». Априорный, поскольку эта структура уже существует до всякого реального восприятия, выступая его условием. Функция этого априорного Другого (или структуры другого) состоит в том, чтобы выступать основанием других, которые будут осуществлять эту структуру в каждом конкретном поле восприятия. Иными словами, эта структура дает возможность состояться опыту конкретного восприятия. Поэтому эту структуру - структуру другого - Делез называет «структурой возможного». «Другой как структура, это выражение возможного мира».

Интересно посмотреть, что производит структура другого («априорный Другой» у Делеза) в таком состоянии сознания как восприятие. Главное следствие действия этой структуры, считает Делез, это разграничение моего сознания и его объекта. Поскольку другой вносит в мир различения, границы, кромки, переносы, которые обеспечивают появление предмета в поле восприятия, то этот предмет, в качестве воспринимаемого отделен от сознания и ему противостоит. Иначе говоря, возникают феномены «воспринимающий» (то есть сознание) и «воспринимаемый» (то есть предмет). До этого сознание и его объект были слиты в одно целое и их не существовало в качестве отдельных феноменов. Именно другой обеспечивает разграничение сознания и его объекта. Далее, становление разграничения сознания и его объекта есть одновременно возникновение пространства, так как возникают различные места - «здесь» и «там». Мое сознание (или «воспринимающий Я») занимает место «здесь», а воспринимаемый предмет занимает место «там». Наконец, появление другого превращает мой мир в прошлый мир, опрокидывает мое сознание в позицию «я был». Другой приносит с собой возможный мир и тем самым вносит в мир временные разграничения. Возникает время в своих феноменах прошлого, настоящего и будущего.

Упомяну еще один элемент, который находится в состоянии сознания и обеспечивает как само существование этого состояния, так и его содержание. В своей работе почти полувековой давности «Анализ сознания в работах Маркса» Мамардашвили показал, что сознание, по Марксу, есть «функция, атрибут социальных систем деятельности», и что содержания и формообразования сознания производятся «из переплетения и дифференциации связей системы (социальной деятельности - С.Г.), а не из простого отображения объекта в восприятии субъекта». Иными словами, содержания сознания (и мышления, как феномена сознания) являются производными от системы социальной деятельности человека. Таким образом, состояния сознания включают в себя как необходимый элемент социальную составляющую индивидуального бытия, то есть ту систему общественных связей, в которую включен индивид как социальный субъект. Элементы, которые были рассмотрены - зазор между реальной вещью и интенциональным предметом, социальная система, структура другого в работе сознания (и мышления) - свидетельствуют о неконтинуальности сознания (мышления).

Зазор, который содержит в себе неинтеллектуальные компоненты не может быть преодолен за счет работы мысли. Он преодолевается лишь индивидуальным усилием быть - испытанием бытия/бытием - как актом не интеллектуальным, а экзистенциальным. Иначе говоря, «работа» мысли требует в качестве необходимых условий жизненные (физиологические, психические, социальные и так далее), а не только интеллектуальные элементы. Это обстоятельство и позволяет поставить под сомнение попытки создания искусственного интеллекта.

Читайте в Bookmate: