previous up next index search
Previous: 4.7.12 Мета язык программирования    UP: 4.7 Прикладные сети Интернет
    Next: 4.7.14 Квантовые компьютеры

4.7.13 Искусственный интеллект

Семенов Ю.А. (ИТЭФ-МФТИ)
Yu. Semenov (ITEP-MIPT)

Первые работы на тему искусственного интеллекта принадлежат Марвину Мински (Marvin Minsky), который в 1960 году опубликовал статью "Steps Toward Artificial Intelligence” ("Proceedings of the IRE", January 1960). Первые заявления о возможности создания искусственного интеллекта прозвучали в 50-ые годы.

С самого начала нужно признать, что пока не существует точного определения искусственного интеллекта. Интуитивно - это нечто, что может решать задачи подобно человеческому мозгу, в то числе и такие, которые ранее не встречались. На мой взгляд компьютер с искусственным интеллектом должен уметь самообучаться. Способность решить какую-то одну сколь угодно сложную задачу не может говорить о наличие искусственного интеллекта. В настоящее время разрабатываются специальные алгоритмы "глубокого обучения" (deep-learning; см. "Smarter algorithms will power our future digital lives", Sharon Gaudi, Computerworld, Sep 26, 2014).

В 1997г компьтерная программа Deep Blue одержала победу над щахматным чемпионом мира того времени Гарри Каспаровым. Мощность машин с тех пор увеличилась на порядки, но превзойти человеческий мозг они пока не смогли.

Четыре года тому назад в нейронных сетевых моделях использовалось 10 млн. соединений, в 2011 (проект Google Brain) - 1 миллиард, а сейчас готовится модель, где будут использоваться около 10 миллиардов соединений.

22-го сентября 2011 г. появилась заметка компании IBM о компьютере Watson (см. Talking computer will change the world; promises not to kill you. Машина была названа Watson в честь первого президента компании IBM Thomas'а J. Watson. Разработчики (во главе с David'ом Ferrucci) позиционируют Watson как компьютерную систему искусственного интеллекта. Он ориентирован на работу с текстами на естественном языке. Watson может обрабатывать до миллиона книг в сек (500 гигабайт). Компания IBM предлагает свой суперкомпьютер Watson в качестве платформы для разработки облачных приложений, ориентированных на когнитивный компьютинг. Важным преимуществом компьютера Watson является его способность к обучению. Именно благодаря этому разработчикам этой системы удалось добиться того, что он смог обыграть в Jeopardy чемпионов США. Watson используется по данным IBM организациями 25 стран, включая Австралию, Англию, Таиланд, Канаду и Испанию.

Накопление данных в различных научных отраслях и аналитические исследования методом когнитивных вычислений может стать источником новых знаний. Фильмы и фантастические романы повествуют об угрозах роботов и искусственного интеллекта, на самом деле несравненно большую опасность представляют программные ошибки.

Компания IBM после своей победы в Jeopardy (Watson) включилась в разработку аналитических программ для бизнеса на естественном языке (см. "IBM Watson Analytics now open for business", Matt Weinberger, Computerworld, Dec 4, 2014). Эти программы базируются на Big Blue AI. Программе можно задавать вопросы типа "What employees are likely to leave the company? и получить графики и диаграммы по этой проблеме. Программа может работать через WEB-браузер. При решении проблемы используются данные из депозитариев IBM, а также от Google Drive, Box, Oracle.

Впрочем, на эту тему существует много различных мнений (например, Elon Musk), смотри "A.I. researchers say Elon Musk's fears 'not completely crazy'", Sharon Gaudin, Oct 29, 2014.

Система с искусственным интеллектом может уже сегодня предсказать кражу данных путем сканирования сообщений e-mail (см. "Artificial intelligence system can predict data theft by scanning email", Tim Hornyak, IDG News Service, Oct 2, 2014). Токийская фирма UBIC создала программу, которая анализирует тексты почтовых сообщений и выявляет потенциальные угрозы кражи данных. Подозрение может вызвать процедура согласования цены на некоторую услугу. Японское патентное агентство намерено выдать патент UBIC на предсказывающую программу.

IBM разработала нейроморфные чипы, которые содержат около 6000 транзисторов, для эмуляции электрического поведения нейронов. Конечной целью является построение системы, которая работает подобно мозгу. Хотя различные части коры мозга имеют разные функции, все они базируются на так называемых микроколонках, содержащих 100-250 нейронов. Силиконовый образец размером с булавочную головку может включать в себя 256 кремниевых нейронов и блок памяти, который определяет свойства до 262,000 синаптических соединений между ними. Программируя эти синапсы соответствующим образом, можно создать сеть, которая будет обрабатывать и реагировать на информацию так же, как это делает реальный мозг (см. Thinking in Silicon, By Tom Simonite. Конечной целью данной разработки станет система с 10 млрд. нейронов и 100 триллионами синапсами. Объем человеческой памяти оценивается как 1-2,5 петабайт.

Рис. 1. Чип с 256 нейронами и 262.144 синапсами (IBM, 2011 год)

В мозге человека содержится 100 млрд нейронов, число же синапсов в 10000 раз больше.

История эволюции интеллектуальных систем и прогноз создания систем искусственного интеллекта представлен на рисунке, взятом из журнала Chip 09/14 (рис. 2). Решение проблемы намечено на 2023 год (некоторые эксперты (Рей Курцвейл) называют 2029-й год). Существуют специалисты, которые считают, что в обозримом будущем эта проблема не будет решена. Прогноз предполагает, что быстродействия компьютера 1018операций в секунду для получения искусственного интеллекта будет достаточно. Сегодня (март 2016) по-прежнему рекордсменом по быстродействияю остается Tianhe-2 (Китай) - 34 пфлопс, что на три порядка ниже. Прогноз на рис 2 для 2045-го года равен 1026 операций в секунду. Считается, что тогда машина станет во много раз умнее человека (см. рис. ниже). Ситуация с ИТ на июль 2014 и прогнозы на ближайшее будущее показаны на рис. 2 (см. "2015 tech trends to watch: Smartwatches, algorithms, 'glance media,' and more", Alex Howard, December 24, 2014). Смотри также Chip N3, 2016, "Создание сверхразума", стр.8-13. Ожидается, что после 2045 года произойдет технологический взрыв, последствия которого предугадать трудно. Это событие иногда называют сингулярностью. При этом предполагается, что новые компьютеры будут проектироваться самими компьютерами, будут иметь большую производительность. Некоторые люди считают, что со временем компьютеры смогут управлять человеческим обществом. На опасность искусственного интеллекта обратили внимание коммерсант Маск, физик Хокинг и Стив Возняк (Apple). На эту проблему еще в 1965 году указал британский математик Ирвинг Гуд, который ранее вместе с Аланом Тьюрингом взломал немецкую шифровальную машину "Энигма".

Для того чтобы человек стал профессионалом в своем деле, нужно как минимум 15-20 лет обучения, время обучения компьютера всегда будет требовать на порядки меньшее время.

Время от времени появляются пессимистические прогнозы о безработице после появления устройств с искусственным интеллектом (см. "Humanity will invent new jobs long before AI “steals” them all", Kathryn Cave, on March 22 2016). Экономист John Maynard Keynes в 1930 году в своем эссе "Economic Possibilities for our Grandchildren" предсказывал существенное сокращение рабочей недели (до 15 часов) за счет технологического прогресса. На практике это вряд ли произойдет, человечество по мере разработок создаст много новых рабочих мест вместо исчезающих. Не следует забывать и о стабильном росте жизненных стандартов.

Институт эффективного альтруизма (Швейцария) опубликовал доклад о перспективах искусственного интеллекта с целью побудить дискуссии на эту тему.

Нейро-программу AlphaGo обучили правилам игры в го, она какое-то время играла сама с собой, а потом обыграла чемпиона мира по го Ли Седоля (Южная Корея) и получила 3586 баллов рейтинга Эло. Это произошло на 10 лет рашьше предсказанного срока. AlphaGo еще один шаг на пути создания искусственного интеллекта, так как машина научилась обучаться. Компания Google внедрила здесь технику TPU - Tensor Processing Unit, которая стала основой технологии deep learning. На первый вгляд эта программа еще один курьез из сферы ИТ.

На самом деле AlphaGo - первый пример, когда на компьютере решена проблема, которая считалась неразрешимой из-за ее экспоненциальной сложности.

Вполне можно ожидать, что искусственный интеллект будет, прежде всего, применен в различных системах оружия, а техника не делает войну гуманнее, она делает ее эффективнее.

Все устройства моделирующие работу человеческого мозга уступают прототипу по энергоэффективности на многие порядки. Современные суперкомпьютеры, уступая человеку по интеллектуальности, потребляют 200-1000 МВт, а человеческому мозгу заведомо достаточно 30 Вт. Пока это важное препятствие для развития технологии искусственного интеллекта. Прогнозируется, что именно кремниевые потомки людей завоюют вселенную.

Рис. 2. Эволюция со временем вычислительных средств, созданных человеком.

Люди считают, что создание средств искусственного интеллекта решит многие проблемы (не нужно будет думать самим!). Мы наделяем ИИ всеми достоинствами человеческого мозга и внутренне надеемся, что он будет лишен каких-либо недостатков. Но где гарантия, что искусственный интеллект не будет совершать тех же ошибок, что и человек? Такой гарантии пока дать нельзя...

Рис. 2A. Прогноз появления исусственного интеллекта, превосходящего человеческий (Chip 06/2016 стр 26)

На конференции Supercomputing 2012 компания IBM продемонстрировала результаты моделирования (нейросимулятор Compass) человеческого мозга на суперкомпьютере Sequoia. Смоделирована работа 530 миллиардов нейронов и 137 триллионов синапсов. В компьютере использованы все 1572864 ядра и 1,5 перабайта памяти. Моделирование происходило в 1542 раза медленнее рельного времени. Система Compass является дальнейшим развитием системы Watson. Compass построена на основе нейросемантических ядер. Каждый чип содержит 256 нейронов, 1024 аксона и 256х1024 синапса. Чипы изготовлены с помощью 45-нанометровой технологии. Была смоделирована работа 2084 миллиардов таких ядер.

Рис. 2B. Нейро чип, использованный IBM для моделирования работы человеческого мозга

Ученые из компании Microsoft и университета Вашингтона продемонстрировали возможность использования искусственной DNA (дезоксирибонуклеиновая кислота - ДНК) для архивного хранения данных (см. "Scientists could use DNA to shrink a data center into a sugar cube", Lucas Mearian, Computerworld, April 11, 2016). В принципе такая память может хранить информацию тысячи лет. Если технология будет доведена по надежности, то супер информационный центр Walmart может уменьшиться до размера кусочка сахара. Ученым удалось записать цифровые данные четырех медиа файлов в виде последовательности нуклеатидов ДНК (A, G, C и T).

Рис. 3. Схема запоминания информации посредством синтетической ДНК

Рис. 4. Эволюция ИТ и прогнозы на момент июля 2014 года.

На рис. 4 отображены уровни ожиданий для различных видов новых технологий. Сразу после появление многие технологии воспринимаются с невероятным оптимизмом (пик на кривой ожиданий), позднее приходят более трезвые оценки. На рисунке показан также прогноз - когда данная технология станет общеупотребимой. Отдельную проблему составляет создание системы визуализации результатов работы компьютера с искусственным интеллектом.

Система распознавания голоса, разработанная компанией Google, умеет распознавать речь (на момент июня 2015г) с точностью 92% против 77% двумя годами ранее. Компания Microsoft научила робота распознавать объекты на изображении с вероятностью ошибки 4,94%.

Ожидается, что в США к 2025 году автоматизация и робототехника вытеснит 22,7 млн. рабочих мест (см. "Robots will transform, not replace, human work", J. P. Gownder). Одновременно эта техника приведет к созданию за тот же период 13,6 млн. новых рабочих мест.

Рис. 5. Доли рабочих мест, ликвидируемых автоматизацией в период 2015-25гг

Интерфейс мозг-компьютер

В последние годы появляется все больше сообщений о разработках интерфейса между человеческим мозгом и компьютером. см. Brain-Computer Interfaces for Communication and Control. Такие интерфейсы пытаются использовать для управления протезами конечностей человека и даже для восстановления зрения. Но этот интерфейс может найти применение и в системах управления, где выполнение той или иной операции может быть инициировано мыслью человека. Первые сообщения о BCI относятся к 1970-ым годам (Jacques Vidal of the University of California).

Электрические сигналы, генерируемые мозгом (электроэнцефалограмма), считываются усиливаются, фильтруются, анализируются и используются для целей управления. Названные выше операции выполняются BCI (Brain-computer interfaces). Базовая схема интерфейса представлена на рис. 6. Интерфейс содержит блок сбора и обработки данных (верхний левый угол) и программу анализа и выработки исполнительных команд (верх справа). В процессе обработки осуществляется спектральный анализ сигналов.

Рис. 6. Структура BCI-интерфейса.

Сигналы мозга можно получать с помощью электродов, установленных на коже головы. Хотя в этом случае электроды и мозг разделяют кости черепа и скальп, получаемые сигналы оказываются детектируемыми. Разумеется, эти электроды воспринимают сигналы не только мозга, но и, например, наводки силовой сети переменного тока (50 Гц). На рис. 7 показан анализ, выполненный Фарвеллом и Дончиным (Farwell и Donchin), где использовалось значение сигнала (Р300) спустя 300 мсек после появления определенного стимула. Испытуемым показывались буквенные символы в виде матриц 6*6. В этих опытах удалось уже идентифицировать сигналы от мозга.

Рис. 7. Схема и результаты эксперимента Farwell и Donchin

Wolpaw, J.R., McFarland, D.J., Neat, G.W. и Forneris использовали анализ сенсоромоторных ритмов (SMR) для управления положением курсором (рис. 6 и 7). На рис. 8 приведен вариант с датчиками, непосредственно контактирующими с мозгом (имплантированные датчики). На рис. 8 представлено три варианта построения BCI.

Рис. 8. Три подхода построения BCI (стрелки отмечают элементы, которые настраиваются)

В последнее время стала широко использоваться техника магниторезонанса для целей визуализации. Используется также инфракрасная техника (fNIR), которая регистрирует вариации мозгового кровообращения и по этой причине характеризуется большими задержками. На рис. 9 показан вариант построения BCI2000, который включает в себя четыре модуля: оператор, источник, обработки сигнала и приложения. Оператор осуществляет конфигурацию интерфейса.

Рис. 9. Составные части BCI2000

На рис. 10 показано оборудование , из которого состоит BCI2000, включающее 16-канальный контактный колпак, laptop и дисплей.

Рис. 10. Оборудование системы BCI

Технология BCI находится на подъеме, но здесь еще много проблем, которые нужно решить. Судя по всему в ближайшие 10-20 лет можно ожидать дальнейшего совершенствования этой техники.

В продаже появились устройства, мониторирующие активность мозга человека "Emotiv Insight" (см. "The rise of ‘Telepathic Tech’ in 2015", Kathryn Cave, February 24 2015). Устройство может также интерпретировать мозговые волны. Ожидается, что в 2015 году интерес к подобного рода приборам заметно возрастет.

Рис. 11. Устройство для чтения и интерпретации мозговых волн

Вполне возможно, что со временем такие интерфейсы помогут объединить аналитические возможности человеческого мозга и вычислительную мощность компьютеров.

DARPA разрабатывает микросхему, которая может быть вживлена в мозг для стимуляции и лучшего сохранения воспоминаний. Прототип ожидается в 2018 году.

Предполагается, что к 2036 году рабочее место сотрудников будет выглядеть совсем не так, как сегодня (см. "Future Workplace: Hologram Meetings & Spanish Innovation?", Posted by IDG Connect on August 04 2014). Ожидается, что для представления данных будут использоваться голограммы, например, формируемыми с помощью "умных" наручных часов.

Исследователи из университета Токио разработали тонкопленочный электронный дисплей, который тоньше человеческой кожи (см. "New electronic display is 10 times thinner than human skin", Lucas Mearian, Computerworld, April 18, 2016). Дисплей базируется на органических светоизлучающих диодах. Дисплей может использоваться при мониторинге физиологических параметров человеческого организма. Дисплеи являются многоцветными и могут наклеиваться на любые поверхности (см. также https://www.gifs.com/gif/v2xWrX). С использованием данной технологии разработаны также органические фотодетекторы.


Previous: 4.7.12 Мета язык программирования    UP: 4.7 Прикладные сети Интернет
    Next: 4.7.14 Квантовые компьютеры