Читать онлайн Об ИИ без мифов. Путеводитель по истории Искусственного Интеллекта бесплатно
- Все книги автора: Леонид Черняк
Введение
О названии, терминологии и дискурсивных полях
Книга задумана как компактное руководство к путешествию по огромному морю материалов, связанных с историей искусственного интеллекта (ИИ), поэтому в ее название включено слово путеводитель. На русском, к сожалению, таких текстов немного, а те, что есть, безнадежно устарели, зато на английском языке их море. Собравшемуся в плавание не помешает этот путеводитель, содержание которого ограничено короткими историческими справками. Автор не претендует ни на абсолютную объективность, ни на полноту изложения, присущую научным трудам. Для того кто делится своим впечатлениями о совершенном путешествии допустимо собственное видение и субъективные предпочтения. В отличие традиционных путеводителей в книге нет иллюстраций, стоит ли в наше время соревноваться с огромным фото-, видео- и аудиоконтентом Сети, находящемся на расстоянии нескольких кликов?
Непосредственным импульсом к написанию стали специальности, избранные моими детьми – Катей и Алешей Артемовыми. Катя – специалист по работе с текстами на естественном языке (Natural Language Processing, NLP), а Алеша – эксперт в области компьютерного зрения (Computer Vision, CV). Общаясь с ними, я пришел к выводу, что тем, кто занимается этими актуальными аспектами ИИ, не хватает представления об истории того предмета, которому они посвятили свою профессиональную жизнь. И тогда возникла идея – а не стоит ли попытаться заполнить обнаруженный пробел в историческом знании всего того, что кроется под зонтичным термином ИИ? Пришлось самому совершить погружение в историю, в результате которого появилась книга, адресованная, в первую очередь, специалистам, чья практическая деятельность так или иначе корреспондируется с тем, что принято называть ИИ.
Незаменимую роль в появлении этой книги на свет сыграла ее редактор Татьяна Грачева, моя давняя коллега (мы работали в издательстве «Открытые системы»). Мысль об обращении к ней за помощью возникла при весьма необычных обстоятельствах – это случилось ночью, в ковидной больнице, размещенной в 75 Павильоне ВДНХ. Наутро из того же невеселого места я написал ей в WhatsApp и к моей радости получил положительный ответ. Как показало дальнейшее, такое начало ни как не помешало созданию продуктивного альянса. Я глубоко благодарен Татьяне за ее заинтересованное участие и важные комментарии к тексту.
Я хочу выразить признательность моей жене, Наталье Гаранян, за ее поддержку и терпение. Думаю, что только она – клинический психолог с многолетним опытом смогла вытерпеть сложности того периода жизни, который бы я назвал «AI у нас дома» по аналогии с названием книги «Атом у нас дома», написанной Лаурой Ферми, женой великого физика.
О терминологии
Для более точного соответствия используемой в книге терминологии обсуждаемому предмету мы в дальнейшем откажемся от русскоязычного термина «искусственный интеллект» в пользу оригинального Artificial Intelligence (AI). ИИ перегружен несовременными смыслами, в русскоязычном варианте термина каждое из двух слов – и «искусственный», и «интеллект» – не полностью соответствуют оригиналу, что создает изрядную проблему.
Казалось бы, английское artificial с русским «искусственный» близки, но они далеко не тождественны. Подавляющая часть значений английского artificial (от art – искусство, мастерство) так или иначе связана с понятием «рукотворный», а в русском, как утверждают лингвисты, слово искусственный ведет происхождение из немецкого künstlich, значащего, скорее, поддельный или ненатуральный, и несет его оттенок. Показательно, в русском при всем его словарном богатстве нашлось место слову артефакт, подчеркивающему, что предмет рукотворен, что он сделан человеком. В английском Artificial Intelligence нет и намека сверхъестественную природу происхождения, использование artificial прямо указывает на то, что AI не какая-то неведомая материя, непонятным образом возникшая, способная возвыситься над человеческим разумом, чтобы творить что ей угодно по собственным правилам, а нечто более прикладное, сделанное талантом и трудом человека.
Еще большее расхождение обнаруживается между словами intelligence и «интеллект». Да, можно перевести intelligence как интеллект, но это всего лишь одно из значений этого далеко не простого слова. Чтобы убедиться в многозначности intelligence, достаточного обратиться к любому онлайн-словарю, например, популярному Multitran’у. Там наряду с «интеллектом» найдутся еще десятки самых разных переводов. Общим для всех них служит одно – извлечение информации и знаний из данных и фактов с последующим использованием результатов в прикладных целях. Поэтому идея получения полезных сведений из сырых данных, полученных тем или иным способом, объединяет совершенно разные области деятельности: и военную разведку (military intelligence), и бизнес-аналитику (business intelligence) и многое иное.
О дискурсивных полях
Книга написана с уверенностью в том, что AI – это очередной шаг в непрерывном процессе развития инструментальных средств человека, в процессе, который начался с создания примитивных орудий, продолжился средствами механизации физического, а с появлением компьютеров – и частично и умственного труда. AI позволяет еще дальше и глубже автоматизировать последний. За скобками оставлены философские подходы к AI, а также все, что связано с Общим и Сильным AI, в том числе концепции трансгуманизма и рассуждения об угрозах со стороны сверхразума и роботов-андроидов и т. п. Такой утилитарный подход к AI несомненно вызовет возражения, поэтому автор хотел бы заранее предупредить критиков – примите как факт – эта книга не для вас, если вы не согласны с авторской позицией, не читайте ее. Полемизировать на сей предмет не имеет никакого смысла.
Разброс мнений относительно AI, невероятно велик, как говорил древнеримский раб-драматург Публий Теренций Афр: «Сколько людей, столько и мнений». Нет и не может быть единственно правильной точки зрения, обсуждать проблемы AI можно только в пределах какого-то одного определенного дискурсивного поля. Напомним, что дискурсивное поле – это, по сути, сообщество единомышленников. Внутри любого дискурсивного поля образуется формальная или неформальная структура, состоящая из основателей, лидеров, активистов, приверженцев и попутчиков.
В России можно выделить несколько дискурсивных полей, так или иначе связанных с AI, некоторые из них имеют формальную организацию. Самое представительное поле образуют академические ученые, прежде всего математики. Многие из них входят в Российскую ассоциацию искусственного интеллекта (РАИИ), наследницу Советской ассоциации искусственного интеллекта, в ее составе заслуженные ученые: доктора и кандидаты наук из 45 регионов России. РАИИ проводит школы, симпозиумы, национальные конференции, ее члены участвуют международных конференциях, издает журнал «Новости искусственного интеллекта».
В существенно меньшее по численности поле входят ученые-философы, чьи интересы связаны с AI, их объединяет Научный совет РАН по методологии искусственного интеллекта и когнитивных исследований (НСМИИ и КИ). Деятельность совета включает проведение заседаний и теоретических семинаров и публикации трудов.
Есть несколько групп, состоящих из романтиков AI, часть из них концентрируется вокруг лаборатории робототехники «Сбера». Они связывают свою деятельность с Общим, или Сильным AI (Arificial General Intelience, AGI), поднимая примерно такие темы: «Может ли AI обладать сознанием?» «Может ли AI превзойти естественный интеллект?» Члены этого сообщества убеждены в том, что тест Тьюринга уже пройден существующими системами AI и что пора «разрушить стену Тьюринга» и ускоренными темпами создавать Сильный AI. Никто, правда, не уточняет, что представляет собой эта стена и почему ее надо разрушать. Они считают, что наступила пост-тьюринговская эпоха, когда человек знает, что общается с компьютером, и последний оказывается ему интереснее, чем другой человек.
И, наконец, есть огромное поле, состоящее из прагматически ориентированных специалистов, решающих реальные задачи, попадающие под определение AI. Их так много и область их деятельности так диверсифицирована, что дать общую характеристику этому полю не представляется возможным. Но можно выделить главное, как сказал известный специалист области машинного обучения Педро Домингес в своей книге «Верховный алгоритм» (The Master Algorithm): «AI – это планета, о которой мы только слышали, но теперь AI – это наша цель. Машинное обучение – это ракета, которая нас туда доставит, а ее топливо Большие данные (Big Data)».
Становясь частью современной индустрии, AI переживает сложный и неизбежный период, когда формируется обычное в таких случаях сочетание прикладной науки и инженерии, возникающее на основе предшествующих достижений в академической науке. Подобного рода трансформация теории в практику в прошлом наблюдалась неоднократно. В таких случаях с неизбежностью создается новый тип профессионального прикладного знания и возникает своего рода водораздел между академическим и инженерным знанием. Для практической инженерной работы обычно оказывается достаточным обладать ограниченным адаптированным набором прикладных знаний в сочетании с умением владеть нужным инструментарием, что же до избытка фундаментальных знаний, то порой он даже оказывается лишним. В качестве аналогии происходящему можно привести выделение в XIX и XX веках из физики таких сугубо инженерных областей как электротехника, строительная механика и других. Любой курс по теоретической электротехнике представляет собой не что иное, как выжимку из физики в сочетании с набором практик, необходимых для различных видов инженерной деятельности, от разработки до эксплуатации.
Признавая объективную необходимость упрощения, надо помнить об ограниченности инженерных знаний, иногда в процессе технических разработок возникают задачи, которые не имеют решения в рамках адаптированной инженерной модели, типичный пример проблема флаттера (возникновения вибрации). Авиационные конструкторы сами не смогли с ней справиться, потребовалась помощь со стороны физиков и математиков. Потеря связи инженерии с наукой в любой области грозит формированием того, что называют «монтерскими знаниями»: его носители успешно решают прикладные задачи, но при этом их не интересуют ни теоретические основы предмета, ни тем более его история. К сожалению, в носителей монтерских знаний превращаются многие из тех, кого называют чудовищным словом «айтишник». Трудно представить себе физика или химика, не знающего истории своей науки хотя бы в общих чертах, но, увы, среди тех, кто образует огромное дискурсивное поле, состоящее из практиков AI, знание истории этого предмета минимально, если оно вообще есть.
Книга представляет собой попытку раскрыть прикладным специалистам исторические предпосылки появления современного AI, не претендуя на большее. Она может вызвать справедливую критику со стороны представителей других дискурсивных полей, но, повторюсь, книга адресована не им.
А закончить это введение хотелось мечтой. На протяжении десятков лет в работе над AI принимали участие удивительные люди, яркие личности, их связывали сложные отношения, они испытывали триумфы побед и горечи поражений, судьба была более благосклонна к одним и несправедлива к другим. Чем не сюжет, например, для сериала на много сезонов? Как знать, может быть, кто-то и реализует эту мечту.
Глава 1 AI – От мечты к обыденности
Люди издревле стремились переложить часть своего труда на машины: первые ткацкие станки, обнаруженные археологами, относятся к 10-му тысячелетию до н. э., водяные мельницы появились в античные времена, а ветряные примерно тысячу лет назад. В последние два-три столетия процесс механизации и в последующем автоматизации пошел с постоянным ускорением, научившись использовать энергию пара, а затем и электричества люди смогли расширить сферу механизации от бытовых приборов до промышленных установок самого разного типа и перейти к автоматизации физического труда. В XX веке компьютеры позволили сделать следующий шаг – автоматизировать еще и часть часть умственного труда, которую удается запрограммировать и передать компьютерам. В XXI веке с использованием AI удалось пойти дальше – передать машинами еще ту часть умственного труда, которая не может быть запрограммирована, и превратить компьютер в интеллектуального помощника, еще больше освобождающего человека от рутины, создать умные машины, выводящие на более высокий уровень автоматизацию производственных процессов. Такое утилитарное понимание роли умного AI сложилось совсем недавно, буквально в последние годы, а прежде на протяжении нескольких десятилетий доминировало более возвышенное, скажем так, романтическое отношение к AI, люди сохраняли убеждение в возможности наделить компьютеры сравнимыми с человеческими умственными способностям, например к доказательству теорем, игре в шахматы и т. п.
Три типа представлений об AI
Сосуществуют сотни и сотни противоречащих друг другу представлений о том, что такое AI, обнаруживаемых в различных произведениях, в диапазоне от философских трактов до технических статей. На одном фланге находятся футурологи с их фантазиями о технологической сингулярности, то есть о том гипотетическом моменте, с наступлением которого технологическое развитие становится неуправляемым и необратимым. По их мнению, такой ход событий неизбежен, и тогда развитие AI приведет к созданию надчеловеческого суперинтеллекта. Успокаивает то, что за этими рассуждениями не стоит ничего кроме вольной экстраполяции существующих тенденций, наблюдаемых в техническом прогрессе. На другом фланге ученые и инженеры, работа которых связана с прикладными методами моделирования работы мозга, в их основе лежат искусственные нейронные сети (ANN, Artificial Neural Network) и их машинное обучение (ML, Machine Learning). Такие работы лишены внешней привлекательности, они мало доступны для понимания без достаточной подготовки, а их перспективы ограничены созданием умных интеллектуальных ассистентов и разного рода умных машин, в том числе роботов. Уже сегодня мы можем увидеть примеры их применения в медицине, в офисной работе, в промышленности, на транспорте и даже в быту.
Суммируя известные представления о типах AI, их можно классифицировать следующим образом:
• Супер AI, или ASI (Artificial Super Intelligence) Те, кто допускают возможность создания ASI, убеждены, что он рано или поздно может возникнуть, причем каким-то неведомым и не подвластным человеку образом. После этого он сможет не только воспроизводить любые способности человека и даже превзойти его во всех отношениях, более того ASI станет телепатом, он научится вникать в мысли и чувства человека и далее подчинить своей воле человечество. К счастью ASI существует разве что в творениях писателей-фантастов, работающих в жанре дистопии (антиутопии) и в трудах некоторых философов. Оставим писателям возможность творить, а из числа философов, приверженцев идеи ASI, наибольшую известность приобрели швед Ник Бострем (Nick Bostrom, 1973), работающий в Оксфордском университете, и австралиец Дэвид Чалмерс (David Chalmers, 1966). Заметим, что авторитет Чалмерса у некоторых философов вызывает сомнение, его книгу «Создающий ум» Джон Серл назвал «коллекцией абсурдов» (О Серле будет сказано ниже.). К числу не философов, однако прежде допускавших возможность появления ASI можно отнести известного предпринимателя Илона Маска и Билла Джоя, разработчика программного обеспечения для UNIX и сооснователя компании Sun Microsystems. В 2000 году на пике славы этой компании в журнале Wired была опубликована статья Джоя «Почему мы не нужны будущему» (Why the future doesn't need us), поначалу она привлекла к себе большое внимание, но спустя 20 лет о ней, как и о компании Sun, не вспоминают, а сам Билл Джой больше на темы ASI не высказывался. Что же касается Маска, то он явно изменил свою позицию, причем настолько, что недавно признался в ошибочности своего намерения довести в ближайшее время автономность автомобиля Тесла до теоретически максимального возможного уровня (Level 5), что уж говорить о более высоком. Показательно, что тема ASI вовсе не привлекает к себе внимание серьезных специалистов, она не обсуждается на серьезных конференциях по AI. Актуальных данных о ее популярности нет, но можно вспомнить прошедшую в 2006 году юбилейную «Дартмутскую конференцию по AI: Следующие 50 лет» (Dartmouth Artificial Intelligence Conference: The Next Fifty Years), где участникам был задан вопрос: «Когда по вашему мнению будет создан ASI?». Меньшинство (18 %) ответивших заявили, что это произойдет до 2056 года, оставшиеся голоса разделились поровну: 41 % после 2056 года, а еще 41 % – никогда. Оценивая эти и без того скромные результаты, следует еще принять во внимание два обстоятельства: во-первых, опрос проводился 15 лет назад, еще до случившегося за последние 10 лет революционного прорыва в области AI-приложений, и, во-вторых, среди участников конференции преобладали не связанные с практикой ветераны, отдавшие свои силы тому, что называют GOFAI (Good Old-Fashioned Artificial Intelligence), здесь идиому good old-fashioned можно перевести как «старый добрый» с обязательным оттенком иронии. Если бы аналогичный опрос проводился сегодня, когда вектор развития резко AI сместился в практическую сторону и в иной более прагматично настроенной аудитории, то наверняка уровень пессимизма по отношению к будущему ASI оказался бы существенно больше, не исключено, что многие из представителей современных, научных направлений вообще не поняли бы, о чем идет речь.
Сильный, или общий AI (AGI, Artificial General Intelligence) По степени разумности AGI стоит на ступень ниже ASI, его адепты убеждены в возможности создания машин, если не превосходящих уровень человека, то способных как минимум выполнять те же действия, что и человек. Эта точка зрения не менее спорна, чем позиция сторонников ASI, поскольку у человека и у машины совершенно разные способности. В чем резон попыток воспроизвести машинными средствами интеллектуальные или другие способности, присущие человеку? Человечество пошло иным путем, создавая машины, которые быстрее и лучше перемещаются по земле, в воздухе, на воде и под водой, не копируя то, как делают человек или животные, машине – машинное, человеку – человеческое, Что же до AI, то мы до сих пор толком не знаем, как устроен и как работает наш мозг, поэтому нет и не может быть системы оценок для сравнения способностей человеческого и искусственного мозга. Чаще всего сторонники AGI апеллируют к тезису Черча-Тьюринга, в предельно упрощенной трактовке постулирующего, что любая сведенная к алгоритмической форме задача может быть решена, если нет ограничений на время и объем памяти. Но кто и на чем основываясь может утверждать, что работу мозга можно полноценно алгоритмизировать? По оценкам, представленным Институтом глобальных рисков катастроф (Global Catastrophic Risk Institute) в отчете A Survey of Artificial General Intelligence Project for Ethics, Risk, and Policy (2017), в мире тема AGI не пользуется популярностью, насчитывается не более полусотни небольших коллективов, работающих в этом направлении, их труды не выходят за рамки теоретических разработок. В 2017 году издание IEEE Spectrum провело круглый стол «HLAI близко или далеко» (Human-Level AI Is Right Around the Corner – or Hundreds of Years Away) с участием десяти активно выступающих со своими прогнозами AI-оптимистов и AI-пессимистов в соотношении 5:5. Разброс мнений оказался чрезвычайно велик: оптимисты, среди них Рэй Курцвейл и Юрген Шмидхубер, верят в HLAI, но расходятся в оценках, одни готовы увидеть его в ближайшее десятилетие, а другие отводят срок на прядок больше, пессимисты же, представленные Кавером Мидом, Родни Бруксом и другими считают, что машинный и человеческий интеллект суть совершенно разные вещи и к ним не стоит подходить с общей меркой. Вывод один – если и ДА, что сомнительно, то не при нашей жизни.
Слабый, или узкий ANI (Artificial Narrow Intelligence) Слово узкий вообще-то подходит точнее, но ANI по-русски принято называть слабым, пусть будет так, но он все же узкий в том смысле, что системы с ANI обладают лишь отдельными качествами, позволяющими усмотреть в их поведении признаки разумности, они предназначены только для выполнения строго определенного узкого круга приложений. В отличие от ASI и AGI здесь невозможно никакое неподвластное человеку автономное поведение и самостоятельное развитие, системы, снабженные ANI, могут существовать только в той форме, в которой они были созданы человеком и находиться под контролем человека. Диапазон реализаций ANI распространяется от виртуальных помощников типа Алисы, Siri и им подобных до систем, работающих на компьютере IBM Watson, способных к игре Jeopardy! и к участию в медицинской диагностике. Даже такие мощные системы как Google Translation Engine или системы автономного вождения автомобилей самого высокого 5 уровня, буде они созданы, останутся в своей узкой нише, даже они не выйдут за пределы ANI. О масштабах ANI как явления, которое сейчас называют «электричеством XXI века» говорит такой факт – число стартапов, работающих в этой области во всем в мире превышает 10 тысяч, а объем бизнеса измеряется сотнями миллиардов долларов.
Тьюринг и AI
Имя Алана Тьюринга неотделимо от AI, чаще всего его связывают с возможностью создания думающей машины. В качестве подтверждения указывают на тест Тьюринга, он де позволяет судить о наличии интеллекта у машины. Но истинный вклад Тьюринга в дело AI намного значительнее, чем приписываемые ему общие рассуждения о возможности создания AI и теста. Еще в конце 40-х годов он предсказал практические пути, могущие привести к созданию «умной машины» (термина AI тогда еще не было), ни в малейшей степени не связанные с тестом. Мысли, высказанные более 70 лет назад, сегодня ценны с исторической точки зрения, но не только, основываясь на них, удается лучше понять нынешнюю ситуацию. Тьюринг, как пророк, совершенно точно предсказал два альтернативных подхода к AI: один «сверху-вниз» – этот подход мы сегодня называем символьным, а другой – «снизу-вверх», мы его называем коннекционизмом, заимствую термин из науки когнитивистики. Дальнейший процесс развития AI принял форму параллельной эволюции (коэволюцию) двух спрогнозированных Тьюрингом подходов, в рамках каждого сложился свой поток событий, во взаимосвязи они образуют историю AI. В этих условиях задача автора книги свелась к изложению событий, связанных с символьным и коннекционистским подходами.
О Тесте Тьюринга
Но начнем с теста и его места в истории AI. Сегодня о нем чаще всего вспоминают в связи с проводимым с 1990 года соревнованием Loebner Prize, где участвуют программы, претендующие на прохождение теста, жюри оценивает удалось им это или нет. Приз был учрежден изобретателем и социальным активистом Хью Лебнером (Hugh Loebner, 1942–2016). За минувшие тридцать лет несколько программных машин-участников по мнению жюри смогли пройти тест Тьюринга, чем «доказали свою разумность».
Поначалу Loebner Prize рассматривали всерьез, даже сам праотец AI Марвин Минский некоторое время публично поддерживал это соревнование. Но спустя годы тот же Минский категорически отрекся, заявив, что прохождение теста не имеет никакого отношения к исследованиям в области AI, вскоре к такому же мнению пришли многие серьезные ученые. Это действительно так, потому что претенденты используют какие-то ухищрения дабы произвести впечатление разумности на жюри, не более того. В 2008 году этот трюк удался Жене Гусману, виртуальному мальчику из Одессы, созданному российскими программистами, тогда отечественная пресса взахлеб говорила о нем, а сейчас едва ли кто вспомнит об этом «триумфе». К настоящему времени Loebner Prize выродился в привлекательное для любителей соревнование, сравнимое с такими как гонки роботов в лабиринте или футбол с участием роботов.
Тест был описан Тьюрингом в статье «Вычислительные машины и разум» (Computing Machinery and Intelligence, 1950), а его идея и название заимствованы у домашнего развлечения, известного как «Игра в имитацию». Впервые статья с описанием теста появилась на страницах малотиражного сугубо философского издания Оксфордского университета. Его название Mind, что можно перевести как размышления, оно являет собой пример «чисто английского», сугубо академического сборника, периодически выходящего с 1876 года. Mind относится к категории journal, то есть ориентирован на более узкий круг читателей, чем magazine, но по-русски обоим соответствует одно слово – журнал. На страницах Mind публикуются философские статьи, которые не претендуют на математическую строгость и уж тем более на практическую реализацию описанного в них. Выбор Mind как места для «Вычислительных машин и разума» представляется странным и как-то не вполне согласуется с позиционированием Тьюринга в науке. Он человек дела, его работы – это сочетание математики с инженерией, например, та же Машина Тьюринга или применение байесовской статистики в криптографическом проекте Ultra. Не исключено, что статья так бы и осталась в анналах Mind, но в 1956 году, синхронно с появлением на свет термина AI она была извлечена на свет и перепечатана в антологии The World of Mathematics, далее первопроходцы AI возвели ее в культ.
Научный авторитет Тьюринга был и остается настолько высок, что на протяжении тридцати лет оспаривать статус теста не решался никто. Первым посягнувшим оказался профессор Калифорнийского университета в Беркли Джон Серл (John Searle, 1932), автор статьи «Сознание, мозг и программы» (Minds, Brains, and Programs, 1980). В ней он описал свой мысленный эксперимент Китайская комната, посредством которого показал возможность имитации разумного поведения, без наличия какого-либо интеллекта. Сначала труд Серла приняли в штыки, но после 2000 года на тест посыпался град критики.
Начало критике положил Дуглас Ленат (Douglas Lenat, 1950), создатель самой мощной и единственной существующей на данный момент экспертной системы Cyc, он назвал тест Тьюрига идиомой red herring, что буквально значит «копченая селедка». (Происхождение идиомы таково – эту пахучую селедку охотники использовали как отвлекающее средство при натаскивании бассет-хаундов, приучая собаку бежать по следу, не отвлекаясь на посторонний запах.)
Один из самых известных диджерати (слово digerati образовано сочетанием понятного digital и literati, так называют представителей литературной элиты) и автор термина виртуальная реальность Джарон Ларнье (Jaron Lanier, 1960) написал в New York Times: «Предположение Тьюринга, что прошедший тест компьютер обретает ум и становится человекоподобным, столь же нелепо как утверждение, что работающий на компьютере человек становится тупее и более похожим на него».
И даже сам Марвин Минский заявил в 2003 году, что, развиваясь по пути указанному Тьюрингом, AI дошел до состояния мозговой смерти, он использовал термин brain-dead.
Ярость, с которой новоявленные критики набросились на тест Тьюринга невольно вызывает в памяти строки Константина Бальмонта: «Тише, тише совлекайте с древних идолов одежды, слишком долго вы молились, не забудьте прошлый свет…». Те, кто только что молились на Тьюринга, и Минский в первую очередь, стали его ниспровергателями. Почему? Да потому, что они с выгодой для себя свели все его наследие Тьюринга в области AI к одной статье, а исчерпав ее потенциал, решили от нее избавиться.
Статья «Вычислительные машины и разум»
Прежде, чем перейти к более значимому труду, где Тьюринг действительно указал путь в будущее AI, зададимся вопросом: «Если тест оказался заблуждением, то как же в таком случае следует относиться к «Вычислительным машинам и разуму», где он изложен? При глубоком погружении в статью складывается непреодолимое ощущение, что перед нами образец джентельменского розыгрыша высокого класса, на который купились очень многие. Если читать статью в оригинале, то нельзя не заметить присутствие в ней британского юмора, не удается отделаться от впечатления о сознательной мистификации. Тьюринг провоцирует читателя, когда начинает с прямого вопроса: «Могут ли машины думать?», подцепив его таким образом на крючок, он в том же абзаце ловко заменяет этот вопрос на другой: «Может ли машина совершать действия, неотличимые от обдуманных действий?». Совершив эту очевидную подмену понятий, он нисколько не утруждает себя необходимостью доказывать тождество двух разных способностей – мыслить и имитировать мышление. Вот она, предпосылка к появлению систем, проходящих тест в конкурсе Loebner Prize и им подобных, которые могут лишь имитировать мышление, но никак не мыслить, поэтому-то они и не имеют никакого значения для развития AI. Странно, как же удавалось десятилетиями не замечать сознательной «мины» – намеренного отождествления двух совершенно разных способностей? Не признав статью розыгрышем, невозможно понять как такой трезвомыслящий человек как Тьюринг мог предложить столь поверхностный тест, основанный не на чем-то ином как на «Игре в имитацию».
Возникает естественный вопрос: «А не является ли сама статья игрой в имитацию?» В рассуждениях об имитации мышления он был не первым, еще Дени Дидро (Denis Diderot, 1713–1784) в «Философских мыслях» (1746) не без иронии написал: «Если мне покажут попугая, способного ответить на любой вопрос, то я без сомнения признаю его разумным существом». Что же до «Игры в имитацию», то была популярна в начале XIX века, в период Первой промышленной революции, которая породила не только новую моду, например на шляпы-цилиндры, форма которых адресует нас к паровой машине, но и тягу британских аристократов к науке и к разного рода интеллектуальным салонным развлечениям. По правилам этой игры две команды, разделенные ширмой, пытаются узнать что-то одна у другой друга посредством обмена записками.
Не только слово имитация, но и метод доказательства вызывают убеждение в том, что перед нами ни что иное как гениальная мистификация, здесь нарушена принятая в науке каноническая последовательность: от гипотезы к постановке задачи, а далее к доказательству. Вместо нее Тьюринг произвольным образом выбирает девять вольно подверстанных утверждений, из которых якобы следует, что создание думающей машины невозможно, а далее успешно опровергает их. И это доказательство? Наиболее серьезный из опровергаемых аргументов Тьюринг заимствовал у Ады Лавлейс, он изложен в записке, адресованной тем, кто пытались найти признаки разума в механической Аналитической машине Чарльза Беббиджа. Более детально о мыслях Ады Лавлейс относительно разумности Аналитической машины будет написано в Главе 3.
Трудно представить, чтобы Тьюринг не понимал слабости предложенной им модели рассуждений о думающей машине, конечно же, это была шутка. Однако приверженцы Сильного AI в нужный им момент превратили шутку в свой катехизис, можно удивляться тому, что философское сообщество тоже попалось на наживку и началась бесконечная схоластическая полемика о возможности или невозможности создания AI, превосходящего разум человека.
«Умная машинерия» и два подходах к AI
Преувеличенное внимание к «Вычислительным машинам и разуму» оставило в тени другую, куда более значимую для AI работу – отчет «Умная машинерия» (Intelligent Machinery, IM), написанный Тьюрингом раньше, в 1948 году. Тьюринг использовал названии не machine, переводимое как машина, а machinery, этому слову точнее соответствует устаревшее в русском машинерия, трактуемое в словарях как совокупность машин, механизмов, технического оборудования. Таким образом он не связывает себя с определенным типом машины. Научное достоинство этой работы подтверждается тем, что в роли ее заказчика выступила Национальная физическая лаборатория (NPL), где создавались не только первые британские компьютеры, но и атомная бомба. В этом труде нет никаких поводов, дающих апологетам Сильного AI пищу для праздномыслия. Сорок с лишним лет IM оставался внутренним документом NPL, роковым в его судьбе оказалось пристрастие к секретности англичан, они же, например, более полувека хранили в тайне проект Ultra и потерявший актуальность компьютер Colossus. Случись публикация IM раньше, эта работа наверняка заняла бы более высокое место в научном наследии Тьюринга, чем «Вычислительные машины и разум», а главное оказала бы позитивное влияние на развитие AI.
В IM Тьюринг гениально предсказал возможные направления в развитии AI, здесь он не занимается мыслительным эквилибристикой или вербальными доказательствами способности машины мыслить, напротив, он предельно строг и рационален. Заметим, что Тьюринг не ограничивает технические средства для IM компьютером, хотя уже тогда было хорошо известно, что такое цифровые компьютеры, над созданием которых он работал, начиная с 1944 года. Первым был Colossus, хотя и цифровой, но еще электронно-механический специализированный компьютер, предназначенный только для дешифровки немецких радиограмм. Алгоритмы, разработанные для него Тьюрингом, основывались на Байесовской теории вероятностей, возможно, это был первый случай практического применения этой теории. Сразу же после окончания войны Тьюринг выполнил для той же NPL эскизный проект «Предложение по электронному калькулятору» (Proposed Electronic Calculator), который был использован при построении английского компьютера-прототипа ACE (Automatic Computing Engine). Поученный в процессе разработки опыт пригодился английским ученым и инженерам в 1947 году при создании первого в мире цифрового программируемого компьютера EDSAC (Electronic Delay Storage Automatic Calculator).
В IM Тьюринг поражает своей прозорливостью: он обосновал возможность существования двух альтернативных подходов к созданию AI, и, как показало будущее, эта дихотомия оказалась верной на 100 %. Один из возможных подходов он назвал подходом «сверху вниз» (top down), его суть в прямом переносе человеческих знаний в машину, позже этот подход за способ передачи был назван символьным. Начиная с 1956 года символьный подход доминировал, он развивался с переменным успехом, пока не достиг предела своего совершенства в экспертных системах и инженерии знаний, но в конечном счете он оказался тупиковым.
Второй подход Тьюринг назвал «снизу вверх» (bottom up), он строится на качественно ином предположении, не имеющем столь древних философских корней. Реальные предпосылки к такому подходу впервые возникли у нейрофизиологов в 30-е годы прошлого века, их работы подтолкнули к мысли о машине, представляющей собой искусственно созданную нейронную сеть (Artificial Neural Network, ANN).
Деление возможных подходов к AI на два – на top down и на bottom up оказалось воистину провидческим, как почти все, что сделал Тьюринг за свою короткую жизнь. Действительно AI в последующем развивался независимо по указанным им альтернативным направлениям. Детальнее о каждом из двух – символьном и коннекционизме, о том, как складывалась их история на протяжении восьми десятилетий, мы расскажем в этой книге. Здесь же можно ограничиться замечанием о том, что символьный подход был востребован в 60–90-е годы. Неудивительно, ведь он обещал невероятно быстрые результаты без особых научных вложений, казалось, что для создания AI достаточно написать соответствующие программы для уже существующих или проектируемых компьютеров. И напротив, развитие коннекционизма в силу целого ряда объективных и субъективных причин, прежде всего из-за отсутствия нужной теории и технологий моделирования ANN, было отложено на несколько десятилетий. Однако в XXI веке ситуация развернулась на 180 градусов, символьный подход ушел в забвение и восторжествовал коннекционизм. На данный момент практически все известные внедрения AI основываются исключительно на коннекционизме. Он стал фундаментом всей индустрии AI, созданной за последние 10 лет, а примеры сохранившихся систем на базе символьного подхода во всем мире можно пересчитать по пальцам.
В главе 4 будет описана история символьного подхода к AI, а в главе 5 коннекционистского.
Проблема души и тела (психофизиологическая проблема) и эффект AI
Остановимся на одной из причин, почему один из подходов оказался тупиковым, а у второго, во всяком случае так видится сейчас, перспективы ничем не ограничены. Создание работающих систем с AI связано с проблемой, схожей с той, которую немецкие психофизиологи обозначили в середине прошлого века, назвав ее Leib-Seele Problem или Psychophysisches Problem, в английский вошел перевод первого варианта Mind and BodyProblem, в русский же второго – Психофизиологическая проблема. Отношения между душой и телом играют центральную роль в современной медицине, психотерапии и психопатологии. Разумеется, с моделью мозга все гораздо проще, но принцип тот же, AI, как сознанию человека, нужна материальная оболочка, тело. В середине пятидесятых начались первые исследования в области символьного подхода к AI и тогда без каких-либо сомнений на роль тела назначили компьютеры, рассуждая следующим образом: мозг оперирует символами и компьютер оперирует символами, раз так, то почему бы и не вложить в него мыслительные способности (по Тьюрингу, сверху-вниз). Однако при этом не учли одной вещи, того, компьютер в том виде как он сегодня существует является программируемым устройством и инструментом для создания AI должно стать программирование. Программируемый мозг – нонсенс.
Нынешние компьютеры – прямые наследники тех, которые создавались в сороковые годы прошлого века с единственным желанием – автоматизировать трудоемкие процедуры расчетов и только, ничего иного от них и не ожидали. Но неожиданно оказалась, что путем перепрограммирования те же компьютеры можно использовать для решения множества иных задач.
Все существовавшие и существующие компьютеры строятся по одной из двух архитектур, созданных три четверти века назад. В подавляющем большинстве (99,9 %) по принстонской, которую не вполне справедливо называют фон-неймановской (ФНА). Неизмеримо меньшее число специализированных сигнальных процессоров созданы по альтернативной гарвардской архитектуре. Этими двумя архаичными на сегодняшний день решениями ограничено все разнообразие компьютерных архитектур. Их объединяет главное – программный принцип управления последовательным выполнением команд, в том и другим случае процессор отрабатывает записанную в память программу. В первом случае данные и программа хранятся в общей памяти, а во втором – раздельно. За семьдесят с лишним лет в ФНА внесены многочисленные усовершенствования, способствующие компенсации присущих ей врожденных недостатков – неспособности к распараллеливанию вычислений, ограничение пропускной способности канала процессор-память (проблема бутылочного горла) и других.
Программное управление известно с античных времен, о его использовании в автоматонах подробно рассказано в главе 3. На компьютеры его распространил Чарльз Беббидж, создав проект Аналитической машины, для этого он, с одной стороны, позаимствовал математические принципы разделения сложных расчетов на простые операции у Гаспара де Прони, а с другой, идею записи программы на перфокарты у Жозефа Жаккара, изобретателя ткацкой машины. Совмещение одного с другим позволило создать архитектуру Аналитической машины, предтечи ФНА. В компьютерах принципы программного управления Бэббиджа сохранились с небольшими модификациями, такими как условные и безусловные переходы и разного рода детали. В целом же нужно признать, что компьютер генетически непосредственно связан с простейшими автоматами. Это кажется весьма странным, но дистанция между Аналитической машиной Бэббиджа и ФНА не слишком велика.
Жизнь показала: рожденный считать – думать не может, попытки обнаружить хотя бы признаки интеллекта в программных системах, претендующих на эту способность, приводят к огорчающему выводу – любые потуги запрограммировать AI в конечном счете сводятся к построению систем, лишь обладающих внешними признаками AI. Очень похоже на известную максиму В. С. Черномырдина: «Хотели как лучше, а получилось как всегда». Этот печальный факт американский автор книг по истории и философии AI Памела МакКордак предложила называть «эффектом AI» (AI effect). Эффект AI обнаруживается во всех без какого-либо исключения программах, которые по замыслу авторов должны были бы демонстрировать наличие у них разума. При непредвзятом анализе в 100 % случаев обнаруживалось, что их поведение на самом деле псевдоразумно и имеет простое логическое объяснение. Как сказал один из виднейших специалистов в робототехнике Родни Брукс: «Магии AI нет, но есть обычные вычисления».
То же самое, но более образно, выражено в утверждении, известном как «теорема» Теслера: «AI – это то, что еще не было сделано» (AI is whatever hasn't been done yet.). Теоремой оно названо не вполне корректно, поскольку не содержит доказательства. Ее сформулировал Дуглас Хофштадтер, автор получившей известность книги «Гедель, Эшер, Бах: эта бесконечная гирлянда», за нее автор был удостоен в 1980 году Пулитцеровской премии в номинации «Нехудожественная литература». Хофштадтер представитель тех, кого называют AI-скептиками, он категорически отвергает возможность создания искусственного разума в форме сильного или тем более общего AI. Когда в 1996 году мир испытал шок, вызванный поражением Гарри Каспарова в поединке с суперкомпьютером компании IBM, он совершенно уверенно заявил: «Разумеется, победа Deep Blue стала поворотным моментом в истории AI, но она ни в малейшей степени не свидетельствует о наличии разума у компьютеров».
История появления самой «теоремы» такова. Ларри Теслер, именем которого она названа, известный специалист в области человеко-машинного интерфейса, работал в Xerox PARC, а позже в Apple, Amazon и в Yahoo!. Случилось так, что однажды в разговоре с Хофштадтером он поведал о наблюдаемом им феномене – если решение некоей задачи вначале может создать о себе иллюзию машинного мышления, то при детальном анализе того что внутри, оказалось – это обычные программы и никаких чудес и решение этой задачи считать примером «настоящего мышления». Наделить мыслительными способностями программируемый автомат невозможно, на этом споткнулись и великие Марвин Минский с Джоном Маккарти, и все-все-все, пошедшие по предложенному ими пути. Будучи писателем, Хофштадтер всего лишь придал этой мысли более лаконичную форму.
Как забытый было AI снова оказался в центре общественного внимания
Забегая вперед, скажем, что к началу XXI века, пережив два цикла подъема и падения символьного подхода, AI впал состояние близкое к анабиозу. Те немногие, кто сохранил веру в него, скрылись в своего рода академических окраинах, они трудились над тем, что представляло интерес для них самих и еще небольшого числа близких им единомышленников. На фоне нынешнего хайпа вокруг AI человеку, не знающему об этом мрачном периоде, трудно поверить, однако реальность была такова.
Неожиданный воскрешение AI, точнее выход из состояния многолетней летаргии случилось в интервале с 2007 по 2012 год. За этот короткий период сложились необходимые и достаточные условия для интеллектуального и технологического взрыва в ограниченной области Слабого AI (ANI). По динамике взлета, по приятию происходящего в разных слоях общества случившееся с AI можно сравнить разве с событиями, имевшими место в авиации в первом десятилетии XX века. Принято считать, что первый аппарат тяжелее воздуха «Флайер-1» построили братья Орвилл и Уилбур Райт, он взлетел 17 декабря 1903 года, а уже к концу десятилетия сотни страны-участники Первой мировой войны использовали авиацию в боевых действиях.
К создание летательных аппаратов тяжелее воздуха приложили руку не только братья Райт, оно стало возможным благодаря успехам в нескольких областях, прежде всего, в появлении легких двигателей внутреннего сгорания и в успехах в изучении основ аэродинамики крыла. Примерно то же самое можно сказать о современных достижениях в области ANI. Подчеркнем, только лишь ANI без каких-либо проекций в будущее на AGI и тем более на ASI. Нынешний взрыв ANI вызвала синергия трех факторов: первый – достижения в работе с большими данными, второй – успехи в области глубокого машинного обучения, и третий – адаптация для процессов обучения ускорителей на графических процессорах GPU.
В данном случае на роли братьев Райт жребий выбрал трех профессоров – Фей-Фей Ли, Джефри Хинтона и Эндрю Ына, каждый из них внес свою лепту в становление этих трех научно-технических направлений. Стоит сказать, что на их месте могли бы оказаться любые другие ученые, все это игра случая, существенно то, что сложились необходимые предпосылки, а кому что досталась не столь важно.
• Профессору Фей-Фей Ли из Стэнфордского университета принадлежит идея использования машинного обучения для извлечения полезной информации из больших объемов данных. В своих экспериментах она использовала базу данных аннотированных изображений ImageNet. Большинство коллег применяли для подобных задач традиционные модели и алгоритмы AI, но Фей-Фей Ли решила нарушить традицию и применить для отработки и распознавания образов мало востребованные к тому времени методы машинного обучения.
• Из всех существовавших методов машинного обучения наилучшие результаты показали методы глубокого обучения, разработанные группой математиков из Университета Торонто, возглавляемой профессором Джефри Хинтоном.
• Универсальные компьютеры оказались слишком медленны для решения задач обучения, выход нашел работавший в Стэнфорде профессор Эндрю Ын. Он предложил использовать графические процессоры GPU для моделирования ANN.
Так возникла технологическая триада, являющаяся базисом современного AI – большие данные, машинное обучение и GPU. Она является альтернативой двум компонентами действующей компьютерной парадигмы, состоящей из программирования и фон-неймановских компьютеров (CPU). Обучение на больших данных заменяет программирование, что же касается GPU, то сегодняшний день кластеры из эти процессоров, ядра которых остаются фон-неймановскими, позволяют создать обучаемую, а не программируемую инфраструктуру. Этот путь создания тела для AI далеко не совершенен, но действующей альтернативы нет, ведутся активные исследования и разработки иных нежели GPU процессоров, но они пока на уровне экспериментов.
Нынешнюю волну AI нередко называют третьей, это так, но надо отдавать себе отчет, что это лишь порядковый номер, ни теоретически, ни технологически эта волна никак не связана с предшествующими. Представленная выше группа весьма харизматичных ученых оказалась в центре внимания масс-медиа, однако необходимые и достаточные условия для возникновения этой волны ANI были созданы более широким научным сообществом.
Новые скептики
Подъем интереса к AI немедленно вызвал обратную волну, с критикой выступили люди, далекие от понимания сути происходящего. Неизгладимое впечатление на общественность произвел ныне покойный британский физик и космолог Стивен Хокинг, заявивший в 2017 году: «Развитие искусственного интеллекта может стать как наиболее позитивным, так и самым страшным фактором для человечества. Мы должны осознавать опасность, которую он несет». Хокинг выразил опасения относительно того, что новейшие технологии могут привести к деградации человека, сделав его беспомощным перед лицом природы, что в условиях естественной эволюции и борьбы за выживание означает верную гибель.
Среди тех, кто добросовестно заблуждается и выступают в прессе, не имея серьезного представления об AI, есть и вполне достойные люди, например, великий дипломат Генри Киссинджер. Его статья с эпохальным на первый взгляд названием «Конец Эпоха просвещения» (How the Enlightenment Ends) опубликована не где-нибудь, а в журнале The Atlantic.
Квинтэссенция позиции Киссинджера такова: «Просвещение началось с философских размышлений, которые распространялись с помощью новой технологии. Мы движемся по противоположному пути. Разработана потенциально доминирующая технология AI, которая нуждается в направляющей философии. Но разработкой таковой никто даже не занимается». Статья завершается выводом: «Создатели AI, некомпетентны в политике и философии, точно так же, как я в сфере технологий, поэтому они должны задаться вопросами, которые я поднял в этой статье, чтобы встроить ответы в свои инженерные разработки. Правительству США стоит подумать о создании президентской комиссии из признанных экспертов-мыслителей, которые помогут разработать национальный подход. Очевидно одно: если мы не начнем эту работу в ближайшее время, очень скоро мы поймем, что уже опоздали».
Однако это контрволна незаметно стихла, не успев как следует подняться, в 2018–20 годах поток «провидческих» выступлений заметно ослаб. В средствах массовой информации и в социальных сетях, где все чаще звучит призыв к трезвому отношению к AI под лозунгом демистификации AI (Demystification AI). В эти годы активно развивался AI-бизнес, связанный с производством средств автоматизации в самых разных сферах.
Особености третьей волны
В чем новизна очередной волны AI, что делает ее отличной от предшествующих, и не ждет ли ее такая же печальная судьба? Для этого сравним их исходные позиции. Напомним, авторы первых двух волн шли по пути, названному Тьюрингом «сверху-вниз» в сочетании с действующей по сей день двухзвенной компьютерной парадигмой, стоящей на двух китах: универсальное аппаратное обеспечение и программное обеспечение, служащее для решении конкретной задачи. В рамках этой парадигмы решение любой задачи, какой бы сложной она ни была, сводится написанию программы для компьютера, главное, чтобы он обладал необходимой производительностью. При этом упускались из виду ограничения этой парадигмы – программируемый компьютер по природе своей не может делать ничего помимо того, что в него вложил человек. Следовательно, нет такого момента, где бы он проявить свой собственный тот самый искусственный интеллект и породить что-то «от себя». Он действует строго по программе, даже при выполнении таких, казалось бы, сложных действий, как доказательство теорем, написание музыки или игра в шахматы.
Качественное отличие третьей волны от первых двух в том, что она реализует схему «снизу-вверх» по Тьюрингу, в ее основе лежит коннекционистский подход, альтернативный символьному. В отличие от процессора нейронная сеть не может быть запрограммирована, но ее можно «обучить» тем или иным образом, после чего она способна моделировать простейшие процессы, происходящие в мозге. На данный момент многообразие методов обучения, сводится к предъявлению нейронной сети большого объема данных с тем, чтобы она смогла настроиться на них и находить решения. По большей части все, что называют AI-приложениями третьей волны ограничено компьютерным зрением (Computer Vision, CV) и обработкой текста на естественном (Natural Language Processing). В отличие от первых двух волн эти приложения относятся не просто к просто узкому или слабому AI (Narrow, Weak AI), а являются сугубо специализированным AI-решениями, которые называют AI, скорее, как дань традиции.
То, что многочисленные рассуждения о возможностях AI на практике пока свелись к сугубо специализированным решениям, имеет вполне понятное объяснение. Возможности моделирования средствами искусственных нейронных сетей ограничены существующими компьютерными технологиями, для сравнения даже самые мощные GPU кластеры, совершенно ошибочно называемые суперкомпьютерами (компьютеры универсальны, а GPU-кластеры специализированы), насчитывают десятки тысяч, максимум сотни тысяч ядер. При этом мозг таракана состоит из 1 миллиона нейронов, лягушки – 16 миллионов. У более сложных существ мозг насчитывает миллиарды нейронов, что касается человека, то в его мозге примерно 85 миллиардов. На сотни тысяч ядер кластеры потребляют мегаватты энергии, а человеческий мозг – 20 ватт. Каким же надо быть безудержным оптимистом, чтобы говорить о реальной возможности сильного AI, превосходящего возможности человека? А ведь находятся!
До того, когда AI обретет потенциал, хотя бы как-то сопоставимый с самым примитивным живым мозгом еще очень далеко, на нынешнем уровне развития электроники просто не о чем говорить. Поэтому схема работы современной обучаемой AI-системы на нейронных сетях в некотором роде искусственна, в отличие от мозга даже простейших. Она разделена на два этапа, первый – training, как следует из названия на нем тренирует или обучает искусственную нейронную сеть, являющуюся грубой моделью мозга, а на втором обученная нейронная сеть переносится в другую сеть, этот процесс называется inference, что можно перевести логическим выводом иди умозаключением. В то же время мозг простейшего живого совмещает training с inference.
О компьютерах и AI
Даже при такой упрощенной схеме реализации AI классические компьютеры, построенные по ФНА с ограниченным количеством центральных процессоров (Central Processing Units, CPU) с задачей training не справляются. Фундаментальная причина заключается в том, что они строятся на процессорах, состоящих из ядер типа SISD (Single Instruction, Single data), то есть задуманы для обработки одного потока данных одним потоком инструкций, для распараллеливания число ядер может достигать нескольких десятков. Даже собранные вместе десятки мощных процессоров оказывается неспособными к моделированию работы мозга нейронной сетью с тысячами узлов, требуемой при решении задач CV и NLP. Временный выход из положения совершенно случайно нашелся в виде Graphics Processing Units (GPU), эти созданные для работы с графикой компьютерных игр процессоры относятся к типу SIMD (Single Instruction, Multiple Data), они состоят из тысяч небольших ядер, на них проще воспроизвести нейросеть и специализированный компьютер будет обладать большей производительностью. Сегодня большая часть задач training решается на GPU. Для inference обученная сеть чаще всего переносится на CPU или GPU, а также на программируемых матрицах (Field Programmable Gate Array, FPGA).
По оценкам аналитиков до 95 % всей процессорной нагрузки, связанной с AI, приходится на inference, то есть на решение прикладных задач с использованием обученных нейросетей, сюда же входит Edge AI, так называют класс автономных систем, реализующих AI на оконечных устройствах. Как следствие, эта область является наиболее привлекательной для разработчиков новых процессорных архитектур. Преодолеть нынешнюю монополию GPU в задачах training если и удастся, то нескоро.
Есть несколько альтернативных разработок, часть из них попадает в категорию умных процессоров (Intelligence Processing Unit, IPU). Одну из них ведет компания GraphCore, пытающаяся создать аппаратными средствами графовую модель представления знаний. Компани Mythic стремится к объединению в памяти работы с цифровыми и аналоговыми данными. Значительное внимание привлекает к себе разработка компании Wave Computing, она дала своему процессору название DPU (Dataflow Processing Unit), из чего следует стремление революционизировать обработку потоковых данных.
О реальных перспективах AI
Как мы видим, реальные достижения не дают основания для избыточного оптимизма в оценке перспектив создания AI, сравнимого с человеческим или превосходящего его. До тех пор, пока компьютер остается программируемым устройством, он не сможет стать в полном смысле этого слова «умной машиной». Поэтому какой бы изощренной ни была программа, полученная с использованием машинного обучения, она останется всего лишь программой, вложенной в нейросеть, и найти в ней даже признаки сильного AI принципиально невозможно.
Удивительно то, что среди ученых, и менее удивительно, что среди футурологов, все же сохраняются убеждения в возможности создания AI за счет роста производительности компьютеров, что ошибочно связывается ими с законом Мура. В 2009 Генри Макграм, руководитель известного проекта Blue Brain прогнозировал, что в 2020 году будет создан «сильный AI», но в наступившем 2021 прогноз не оправдался. Пожалуй, самый известный из современных футурологов Рей Курцвейл в книге «Сингулярность близка» (The Singularity is Near, 2005) делал тот же прогноз на 2025 год, осталось недолго ждать.
Реальные перспективы применения AI связаны с автоматизацией, причем в большей степени с автоматизацией рутинных процессоров умственного труда и с созданием промышленных, транспортных, военных систем с повышенной степенью автономности.
AI и автоматизация
Настороженность, вызываемая в обществе перспективами внедрения AI, заставляет вспомнить, что с давних времен отношение людей к механизации, а в последующем и к автоматизации было сложным, ярчайший пример восстание луддитов в начале XIX века, они препятствовали внедрению машин в ходе промышленной революции в Англии, они считали, что машины станут причиной безработицы и выражали протест в погромах. На деле происходит обратное, с внедрением машин растет производство, что ведет к увеличению числа рабочих мест, однако страх перед автоматизацией не исчез. Противники нового утверждают: «Автоматизация это плохо, она убивает рабочие места и лишает нас будущего», на что сторонники отвечают: «Автоматизация это хорошо, она создает качественно новые рабочие места и это наше будущее», при этом и те, и другие понимают, что автоматизация неизбежна. За 200 лет область автоматизации распространилась от замены человека в простейших физических операциях до управления сложными системами, где требуется определенный интеллект. Внедрение AI – очередной шаг в этом направлении.
Слово «автоматизация» происходит от греческого «автоматос», значащего «действующий самостоятельно». Автоматизацию в ее традиционном индустриальном понимании связывают с наличием образной связи в контуре управления. Первый шаг в этом направлении сделал Джеймс Уатт, заменивший в 1788 году изобретенным им центробежным регулятором мальчика с веревкой, приставленного к паровой машине. За последующие два с половиной века было создано множество машин и систем, различающихся по степени вложенной в них разумности или интеллектуальности (intelligence). Сегодня сложилась следующая трехуровневая классификация автоматизированных систем по уровню их интеллектуальных способностей:
• Assisted Intelligence – системы со вспомогательным интеллектом, обладающие ограниченными способностями, могущие делать только то, что им предписано, они широко используются в многочисленных встроенных системах в диапазоне от простых бытовых устройств до крупных промышленных объектов. В эту же категорию попадают и умные вещи, и так называемые Smart Products, и умная окружающая среда (Smart Environment). Эти системы полностью или частично избавляют человека от физического труда.
• Augmented Intelligence – системы, интеллект которых служит вспомогательным средствам для человека, они могут избавлять от наиболее рутинной части умственного труда.
• Autonomous Intelligence – системы с автономным управлением, способные к самостоятельной деятельности. Это пока еще гипотетический класс систем, возможность создания такого типа остается недоказанной.
Внедрение AI существенно расширит применение систем уровня Augmented Intelligence, открывается хорошая перспектива для появления систем поддержки приятия решений (Decision Support Augmentation, DSA) в самых разных областях – в науке, инженерии, медицине, системах обеспечения безопасности. Для таких систем появилось специальное название AI-coworker, то есть AI-коллега.
История интеллектуальных помощников
Идея интеллектуального помощника не нова, ее можно найти в классической статье «Как мы можем думать». В ней Ванневар Буш (Vannevar Bush, 1890–1974), которого за его научную и административную деятельность называли Царем Науки (Science Tsar), описал гипотетическую машину MEMEX (MEMory EXtender). Подобно Алану Тьюрингу, использовавшему придуманную им машину для доказательства вычислимости, Буш предложил свою виртуальную машину, чтобы показать, как техника могла бы помочь человеку при работе с большими объемами документов. Машину MEMEX Буш рассматривал как инструмент для совмещения способностей человека и машины, он оставил за человеком творческий подход, ассоциативное мышление и другие присущие ему качества, а на машину переложил рутинные операции с документами.
Продолжателем дела Буша стал Даг Энгельбарт (Douglas Engelbart, 1925–2013), он известен большинству изобретением манипулятора-мышки, но это его попутное достижение, а реальный вклад – системы для совместной (коллаборативной) работы NLS (oN-Line System) и средства для презентаций, используемых для поддержки публичных выступлений. Сегодня для оформления презентаций широко используют Microsoft Power Point или Apple Key Note, а в 1968 году презентация была открытием. Менее известно создание Энгельбартом концепции, названной им Augmented Intelligence (AuI), что можно перевести как «усилитель интеллекта». Идею усиления человеческих возможностей при помощи компьютера Даг Энгельбарт высказал в 1962 году в работе «Усиление человеческого интеллекта, концептуальная схема» (Augmenting Human Intellect: A Conceptual Framework).
AI и бизнес
Системы с AuI, предназначенные для расширения интеллектуальных способностей человека, становятся серьезным сегментом AI-бизнеса. Об этом свидетельствует недавний отчет Gartner «Победить в AI с опорой на AuI» (Leverage Augmented Intelligence to Win With AI). В нем Gartner считает наиболее перспективной модель партнерства человека с машиной и человеком, в центре которой находится человек, деятельность которого поддержана технологиями AI. Авторы считают, что сочетание человеческих способностей со способностями AI позволит создавать более эффективные технологии. При этом отмечается: «Цель внедрения AI заключается в создании условий, при которых человек стал бы умнее и счастливее, а не ради построения какого-то утопического «машинного мира» ради него самого. Это подход нацелен на получение преимуществ от внедрения AI, он позволит получать все лучшее и от людей, и от машин».
Другой перспективный сегмент – внедрение AI непосредственно в производственные процессы, что выведет автоматизацию на уровень гиперавтоматиации (Hyperautomation). Под гиперавтоматиацией в Gartner понимают интеграцию уже известных направлений автоматизации (роботизированная автоматизация процессов (Robotic process automation, RPA), интегрированный менеджмент бизнес-процессов iBPMS и других) с методами AI. Примерно в том же направлении рассуждают и другие аналитики, в IDC используют термин интеллектуальная автоматизация процессов (Intelligent Process automation), а Forrester – цифровая автоматизация процессов (Digital Process Automation).
Глава 2 Предпосылки к созданию AI
Можно говорить о различных предпосылках к созданию AI, среди них и сказочные, и исторические, и научные, и технические. С одной стороны это древние мифы и легенды, а также возникший в XX веке жанр литературной и кинематографической фантастики, претендующей на научность, с другой – исследования в области нейрофизиологии, позволяющие заглянуть в тайны мозга, и еще технические – это компьютеры, открывающие возможность воспроизводить нечто похожее на работу мозга.
AI в сказаниях и научной фантастике
Мы живем в удивительное время, когда почти все, о чем мечтало человечество, осуществилось: за последние пару веков люди научились перемещаться в разных средах с высокими скоростями, общаться на расстоянии, вышли за пределы Земли, победили неизлечимые прежде болезни, значительно увеличили среднюю продолжительность жизни, все это воплотилось, но совсем не так, как рисовало воображение. Для перехода от мечты к реальности потребовался огромный объем научных исследований и создание новых отраслей промышленного производства. В результате получились не ковер-самолет и крылатые кони, а мощнейшие летательные аппараты тяжелее воздуха, не живая вода, а плоды медицинской индустрии и фармакологии и тому подобное. На очереди воплощение мифов об умных машинах и оживленных рукотворных созданиях, но и здесь та же проза, тот же многолетний труд, то же сочетание науки и технологий.
Первые упоминания о служащих богам умных механизмах восходят к мифологическому наследию Древней Греции. На пирах богов-олимпийцев, описанных Гомером, из автоматически открывающихся дверей в сопровождении золотых дев выкатывались тележки-автоматы с пищей богов: нектаром и амброзией. Гесиод, современник Гомера, описал еще два разумных творения: одно из них, красавицу Пандору бог-кузнец Гефест вылепил из глины по велению Зевса, наделив ее и обычными для прекрасного пола слабостями. Движимая любопытством Пандора на горе людям открыла ящик с бедами и болезнями, оставив после себя выражение «ящик Пандоры». Совершенно иное создание – великана Талоса выковал мастер Дедал, отец того самого Икара, безрассудно взлетевшего к Солнцу на крыльях из воска и перьев. Бронзовому воину Талосу было назначено обеспечивать безопасность острова Крит, куда Зевс поселил очередную подругу Европу. Позже живший на границе старой и новой эры римский поэт Овидий сложил легенду о Пигмалионе, влюбившемся в собственное творение – в скульптуру девушки необыкновенной красоты. Покоренная силой его любви Афродита оживила статую: так появилась Галатея.
Менее известны мифы других народов о гомункулусах (homunculus – искусственный человечек). Скандинавские саги повествуют о князе Грунгнире, слепившем из глины великана Меккуркальви для борьбы с богом Тором. В индийских храмах, которые внешне напоминают космические корабли, отражены сказания о летающем дворце Вимана. Из Китая дошла легенда о монахе Дао Хуане, создателе человекоподобных механизмов для обороны монастыря. Всем известна русская сказка о Снегурочке, но есть еще одна – о Глиняном болване. Из более современных сказочных созданий, конечно же, Пиноккио-Буратино и прекрасная компания из «Волшебника страны Оз».
В Европе популярен миф о великане Големе, слепленном из глины средневековыми иудейскими каббалистами для защиты обитателей пражского гетто. Позже Голем стал персонажем ряда литературных произведений, начиная с романа малоизвестного немецкого писателя-романтика Карла Арнима «Изабелла Египетская» (1812), вслед за ним к теме Голема обращались Густав Майринк, Томас Манн, Исаак Башевис-Зингер и другие.
Однако самый значительный успех выпал на долю Мэри Шелли (1797–1851) с ее романом «Франкенштейн, или Современный Прометей» (1818), навеянным легендой о Големе. Небольшая по объему книга, написанная Шелли в юном возрасте, была десятки раз экранизирована, по ней поныне снимаются фильмы и ставятся спектакли, при этом в них нередко Франкенштейном ошибочно называют чудовище, созданное Виктором Франкенштейном.
Научная фантастика и AI
Подлинный же взрыв интереса к литературной интерпретации AI пришелся на первую половину XX века с появлением массовых изданий в жанре научной фантастики. Русское название жанра, «научная фантастика» отличается от английского оригинала science fiction (sci-fi) примерно так же, как «искусственный интеллект» от «artificial intelligence», термины несут близкий, но не тождественный смысл. Словосочетание science fiction скорее следовало бы переводить как «художественный вымысел о науке», русский же перевод страдает креном в сторону науки, хотя подавляющая часть этих произведений к ней не имеет никакого отношения. Отцом жанра sci-fi (The Father of Science Fiction), называют Хьюго Гернсбека (Hugo Gernsback, 1884–1967), австрийца, переехавшего в Америку, изобретателя, писателя, популяризатора науки и основателя первого в мире научно-фантастического журнала «Замечательные истории» (Amazing Stories), издававшегося огромными тиражами с 1922 по 2005 год.
Особо останавливаться на sci-fi не стоило бы – обычно эти книги, однажды прочитанные в юности, с годами забываются, если бы взлет интереса к sci-fi в США в предвоенные годы ни оказал колоссального воздействия на жизненный выбор многих людей того времени. О своем увлечении научной фантастикой и о ее влиянии на выбор жизненного пути неоднократно вспоминали многие из тех, кто признан великими в области AI. Когда читаешь оставленные ими мемуары, невольно создается впечатление, будто в юношеском возрасте у них произошла аберрация сознания, приведшая к тому, что до конца жизни они плохо различали реальность и вымысел. Возможно этим объясняется отсутствие у них критического отношения к тому, что они делали, а еще больше к тому, что они обещали, но так и не сделали.
Первенство в деле создания произведений о роботах принадлежит братьям Чапекам – писателю Карелу и художнику Йозефу с их пьесой R. U. R. (Rossumovi univerzální roboti, 1921), где действовали искусственно созданные биологические существа, названные ими роботами от чешского слова robota, имеющего совсем иное значение, чем в русском языке. Такая игра слов нередко случается в славянских языках, robota не то же, что созвучное ей слово работа, а каторга. (Есть похожий казус из польского, где uroda – красота.) С подачи Карела Чапека слово робот вошло во все языки и было повторено во множестве научно-фантастических произведений, хотя R. U. R. скорее можно отнести к жанру социальной утопии, а не sci-fi.
Первым автором ранней советской фантастики, упомянувшим роботов, был Владимир Орловский – химик, профессор Ленинградского фармацевтического института, он погиб во время блокады. Один из его рассказов был переведен и опубликован в Amazing Stories.
Апогей увлечения литературой sci-fi пришелся на середину прошлого века, когда в моду произведения Артура Кларка, Айзека Азимова, Станислава Лема и других именитых писателей-фантастов. Но золотое время литературы sci-fi минуло, книги читать стали меньше и фокус внимания любителей фантастики сместился на кинематограф, а позже на компьютерные игры. Особый успех достался культовому фильму «2001 год: Космическая одиссея», созданному в 1968 году в соавторстве со Стэнли Кубриком (режиссер) и Артуром Кларком (сценарий) по рассказу последнего «Часовой» (1951). За фильмом последовал роман-сиквел с тем же названием «2001: Космическая одиссея». Один из главных персонажей одиссеи – разумный компьютер HAL 9000, которому в значительной мере подчинен космический корабль. Этот и другие филмы создали в массовом сознании представление о мнимой реальности искусственного разума, способствовали мифологизация AI.
Неуемная фантазия авторов книг, фильмов и видеоигр стимулировала в массах псевдонаучное представление об AI в спектре от сильного AGI до суперинтеллекта ASI, а слабый ANI, как внешне малопривлекательный, полностью выпал из сферы интересов. Сдвиг сознания в сторону антропоморфизации легко объясним общим для всех фантастов и футурологов качеством – они способны предвидеть будущее через экстраполяцию существующего сегодня, исходя из видимого ими в данный момент. Показательны в этом отношении иллюстрации к фантастическим романам начала прошлого века, где улицы забиты конными экипажами, мостовые погребены под экскрементами лошадей, а неба не видно из-за переплетения телефонных проводов. Тенденцией писать о будущем, исходя из известного, можно объяснить массированное очеловечивание AI в научной фантастике. Жизнь дала авторам возможность увидеть разумность (intelligence) только в человеке и они не могут представить ее в иной в форме. Встречаются исключения, такие как Океан в «Солярисе» Станислава Лема, но редко. Нынешние достижения в области AI показали, что машинная разумность разительно отличается человеческой, способная к обучению машина, будучи встроенной в систему, может выполнять отдельные несложные функции лучше и быстрее человека, но при этом не имеет ничего общего с тем, как это делает человек.
О склонности фантастов очеловечивать AI точно высказался Джошуа Бенжио, один из наиболее известных в мире специалистов по искусственным нейронным сетям и глубокому обучению: «Серьезное заблуждение футурологов и фантастов состоит в том, что они видят AI продолжением существующего, они видят его похожим на нас или на животных, представляют, будто AI может обладать собственной личностью или сознанием. Но работающий AI – это обычная машина и как машина он не может обладать ни личностью, ни собственным сознанием, ни инстинктом к самосохранению».
Механика: от автоматонов до программируемых ткацких станков
Живший в I веке н. э. греческий механик Герон Александрийский вошел в историю как создатель первых автоматонов. Так назвали самодвижущиеся существа, термин сохранился до нашего времени. Кроме них на счету у Герона автоматические двери, механический театр кукол, торговые автоматы, паровая турбина и устройства управления, где программа записывалась штырьками на вал, вращаемый намотанной на него веревкой. Это простейший способ программирования сохранялся столетиями в самых разных устройствах, а программирование достигло совершенства в компьютерах, сохраняющих прямое родство с обыкновенной шарманкой. Современники Герона отнеслись к его автоматам более чем серьезно и еще много лет спустя продолжали очеловечивали их, поэтому живший на триста лет позже Аристотель счел нужным разъяснить – только живые существа способны действовать по собственной воле, а неживые исключительно под воздействием внешней силы. Эта мысль великого философа должна бы действовать отрезвляюще на тех, кто и сегодня сохраняет веру в суперинтеллект, способный превзойти человека.
Китай тоже можно назвать родиной автоматонов. Здесь задолго до Герона, в эпоху императора Му (976–922 гг. до н. э.) мастер Ян Ши сделал для своего владыки человекоподобный автоматон, способный петь и танцевать, а почти через тысячу лет другой мастер Ма Дэйфень предложил императору Сюань-цзуну (810–859) проект автоматизированных столовых принадлежностей, но тот эту идею не одобрил.
Значительно преуспели в создании автоматонов арабские механики, жившие в эпоху расцвета арабской культуры. Наибольшую память о себе оставил Аль-Джазари (1136–1206): он изготовил человекоподобные музыкальные автоматы, разместил их в лодке, ее запускали в озеро, они вней плавали под исполняемую самими музыку. Программы движения и музыки были записана на валиках, снабженных кулачками. Кстати, в традиционных автомобилях с бензиновыми четырехтактными двигателями внутреннего сгорания газораспределительный механизм управляется программой, записанной кулачками на валу.
В XVI–XVIII веках пальма первенства в деле создания автоматонов перешла к европейским мастерам, они поставляли ко дворам царственных особ поражавшие современников шутейные машины (Frolicsome Engines). Им удалось превратить ремесло создания программируемых автоматов в искусство, но с точки зрения управления они были все так же незатейливы – удивительного внешнего вида шутейные машины имели всего одну, как бы мы сказали сейчас, «прошитую» программу. Высшим достижением в области шутейных машин стали автоматоны французского механика Жака Вокансона, созданные им в середине XVIII века, их так и называли вокансонами.
Развлекательные автоматоны были непременным атрибутом большинства европейских дворов, даже у русского царя Алексея Михайловича в Коломенском дворце имелась пара механических львов, изготовленных в 1673 году часовых дел мастером Оружейной палаты Петром Высоцким. Они были способны воспроизводить некоторые движения животных и рычать. Встреча Петра I с тем, что к тому времени осталось от игрушек его отца, описана Д. С. Мережковским в историческом романе «Антихрист (Пётр и Алексей)».
Внедрение автоматов со сменной программой началась в XVI веке во Фландрии, в то время самой процветающей части Европы. Начало положили фламандские мастера, они изобрели программируемые карильоны, входившие в состав башенных часов. Классические карильоны – колокольные музыкальные инструменты, на них играли с помощью специальной молотковой клавиатуры. Их история уходит в середину I тысячелетия н. э., при раскопках в Китае был обнаружен прототип карильона, состоящий из шестидесяти четырех бронзовых колоколов. Прежде в Европе с XII века создавали городские башенные часы со звоном, но без циферблата – они предназначались исключительно для того, чтобы созывать звоном прихожан на молитву. Такие часы называли ударными (striking clock, или chiming clock). Фламандские мастера объединили карильоны с часами и снабдили их механизмом, позволявшим исполнять с заданной периодичностью различные заранее запрограммированные мелодии. Программаторами служили придуманные Героном огромные барабаны со штифтами, а для приводов к молотам использовались веревки.
Используемый во фламандских карильонах программатор в 1805 году навел мастера-ткача Жозефа Жаккара на мысль о конструкции автоматизированного станка, способного ткать узорчатое полотнище. С тех пор подобную ткань называют жаккардом. Ткацкий станок сочетал в себе два управляющих устройства – основное, в нем, как в карильоне, программа «записывалась» на барабан, а в дополнительном, обеспечивавшим разнообразие узоров, программы записывались на изобретенные Жаккаром сменные дощечки с отверстиями, похожие на перфокарты.
Чарльз Бэббидж – автор идеи автоматизации вычислений
Чарльз Бэббидж (Charles Babbage, 1791–1871) перенес идею программного управления на механизацию вычислений, в этом его величайшая заслуга. Он начал с первой из двух созданных им Разностных машин (Differential Engine), реализующей всего один алгоритм расчета, но, не закончив ее, пришел к выводу, что вычислительная машина должна быть более универсальной, то есть со сменной программой. В поисках решения для записи программы он обратился к перфокартам, известным ему по машине Жаккара, но этого оказалось мало, нужно было еще каким-то образом адаптировать собственно процедуру расчета к выполнению ее на машине. На выручку пришла разработанная его современником, математиком и инженером Гаспаром де Прони (1755–1839) система распределения труда в ручных расчетных процедурах. Потребность в создании такой системы возникла, когда император Наполеон наметил переход на метрическую систему и поручил барону де Прони возглавить эту работу. Барон, предвидя необходимость выполнения огромного количества вычислений, нашел способ ускорения этого процесса посредством распределения операций между большим числом исполнителей, разделенных на три квалификационных уровня. Высшую ступень в этой иерархии занимали несколько выдающихся математиков, среди которых были Лежандр и Карно, они готовили, как бы мы сказали, математическое обеспечение. На втором уровне стояли образованные «технологи», которые организовывали процесс вычислительных работ. Последними в этой структуре были вычислители (computers), их квалификационный максимум – умение складывать и вычитать. Обычно это были девушки, которым революция позволила выбраться из социальных низов. Заслуга де Прони в том, что он нашел алгоритмический и технологический подходы для сведения сложных вычислений к простейшим операциям, не требующим от их исполнителей творческого подхода.
Знакомство с работами Жаккара и де Прони подтолкнуло Чарльза Беббиджа на создание Аналитической машины. У Жаккара он позаимствовал программное управление, а у де Прони – разделение сложных вычислений на элементарные операции. Но, как говорят, непосредственным импульсом к конструированию новой машины оказался проигрыш партии Механическому шахматному автомату, названному Турком. С этим Турком его создатель Вольфганг фон Кемпелен (Wolfgang Kempelen,1734–1804), а после его смерти новые владельцы, разъезжали по всему миру до тех пор пока лже-автомат не вышел из строя. Секрет Турка раскрылся только через сто лет в 1947 году, когда его останки нашли в одном из американских музеев. Ни каких чудес, оказалась, что внутри куклы сидел скрытый системой зеркал человек, перемещавший фигуры с помощью системы рычагов.
Аналитическая машина в силу ее сложности никогда не была построена, лишь через несколько десятилетий сыну Бэббиджа после его смерти удалось реконструировать отдельный фрагмент. Но тем не менее в среде современников Бэббиджа появились странные предположения о ее разумности. Сам создатель Аналитической машины, конечно же, в них не верил, но и не спешил рассеивать заблуждения по весьма понятной причине – ему нужны были средства на окончание работы, а разговоры о мыслительных возможностях его творения будоражили умы, чем немало способствовали получению денег. Внушение власть имущим веры в возможность создания чудо-машины часто способствует получению инвестиций, этот прием применяли многократно особенно, начиная с 1956 года, некоторыми он используется и сейчас. Однако у Бэббиджа было двое верных последователей. Луиджи Менабреа, итальянский офицер, в последующем политик (Luigi Menabrea, 1809–1896), составивший конспект лекций, прочитанных мэтром в Турине и таким образом сохранивший для потомков труды своего учителя. Леди Августа Лавлейс (Augusta Lovelace, 1815–1852), стала автором комментариев к этому конспекту. Оба глубоко понимали суть проблемы и противодействовали попыткам наделить Аналитическую машину какими-то либо элементами сознания. Менабреа, как инженер, к тому же не связанный обязательствами перед британцами, был более категоричен в своем отрицании всяких праздных размышлений относительно разумности машины, а вот леди Августе, как члену высшего общества, куда входил и сам Бэббидж, было сложнее отстаивать свою позицию, не навредив учителю. Она допускала, например, гипотетическую возможность сочинения машиной музыки, но только в том случае, если ей будут заданы соответствующие правила. Квинтэссенцией же ее отношения к машине служат слова: «Аналитическая машина не претендует на обладание способностью создавать что-то действительно новое. Машина может выполнить лишь то, что мы умеем ей предписать. Она способна сделать формальный анализ, но не может сделать из него выводы и предсказания». Удивительно как точно и прозорливо совсем молодая женщина, не имевшая формального образования, смогла сформулировать истину, о которой не следует забывать и тем, кто пытается насаждать мысли о разумности AI в наше время.
Электроника и первые компьютеры
Аналитическая машина Беббиджа стала венцом применения механики для вычислений, за последующие сто лет ничего сравнимого сделано не было, они отмечены лишь массовым производством простых счетных устройств и табуляторов. Радикальные изменения, ставшие техническими предпосылками к созданию AI, начались в период с 1930 по 1950 год, когда произошел настоящий взрыв достижений в самых разных областях науки и технологий, от микробиологии до ядерной физики, от телевидения до авиационно-космической отрасли. Успехи в электронике способствовавшие созданию материальной базы для будущих компьютеров.
В первую очередь следует назвать изобретение электронных ламп-триодов с тремя электродами. Напряжение подавалось на два – анод и катод, а управление силой тока осуществлялось изменением напряжения на размещенном между ними третьем – сетке. Управляющий сигнал на сетке позволял варьировать поток электронов между анодом и катодом. Конструктивно на одной лампе, скомпонованной из двух триодов (двойном триоде) можно собрать двухпозиционное электронное устройство – триггер (flip-flop), способное хранить 1 бит данных. Из триггеров собирают регистры, хранящие машинное слово и выполняющие различные виды работ с двоичными числами. Регистры были и остаются основой архитектуры с хранимой в памяти программой.
Не будь компьютеров, никакого AI не могло бы быть и в помине. Трудно представить, но самые первые компьютеры к науке не имели прямого отношения, они были в чистом виде плодом инженерной мысли, строились на основе эмпирических представлений, без какого-либо теоретического обоснования. Теория к ним была несколько искусственно подверстана позже, она ассоциируеться с двумя именами – Алана Тьюринга и Джона фон Неймана, однако их роль и место в истории компьютеров не столь очевидны и значимы, как их обычно представляют. Как математик, Тьюринг вошел в историю тем, что смог справиться с проблемой разрешимости (Entscheidungsproblem), поставленной в 1900 году Давидом Гильбертом. Свои изыскания он изложил в статье «О вычислимых числах, применительно к проблеме разрешимости» (On Computable Numbers, with an Application to the Entscheidungsproblem), опубликованной в 1936 году. Для доказательства Тьюринг использовал изобретенный им виртуальный инструмент – гипотетическую машину, более известную как «универсальная машина Тьюринга» (Universal Turing Machine, UTM). Годы спустя ее стали называть «a-machine» (automatic machine), потому что через 12 лет он описал еще одну гипотетическую машину «b-machine». UTM оказалась связанной с компьютингом благодаря одному удачному, если не сказать фантастически удачному обстоятельству. Так случилось, что в июне 1937 года во время стажировки в Принстонском университете Тьюринг получил возможность пообщаться с Джоном фон Нейманом и изложить ему свои взгляды на UTM. Это обстоятельство подтверждает рекомендательное письмо Тьюрингу, подписанное фон Нейманом, где признанный ученый дал высокую оценку молодому аспиранту.
Встреча произошла не в университете, где стажировался Тьюринг, а в Институте перспективных исследований (Institute for Advanced Study, IAS), расположенном там же в Принстоне (штат Нью-Джерси), космполитичный IAS не имел непосредственных контактов с сугубо консервативным элитным Принстонским университетом. В тридцатые годы IAS, раньше, чем это сделали правительственные организации, стал принимать ученых, бежавших из нацистской Германии. Благодаря этому он принял под свою опеку Альберта Эйнштейна, Джона фон Неймана, Роберта Оппенгеймера, Курта Геделя и других знаменитых ученых. Уникальная система финансирования позволяла ученым быть независимыми от каких-либо указаний извне, каждый исследователь работал над тем, что ему интересно. Как следствие атмосфера института оказалась прекрасной питательной средой для многих научных достижений. Несомненно, что пребывание в нем оказалось полезным и для Тьюринга. Что же касается фон Неймана, то он вернулся к идее UTM через несколько лет.
Таких людей, как Джон фон Нейман, называют полиматами, то есть универсальными гениями. С момента приезда в США его научные интересы были связаны с квантовой физикой, а когда стартовал Манхэттенский проект, целью которого было создание атомной бомбы, он стал одной из его ключевых фигур. Парадоксально, его имя чаще всего упоминают в связи с компьютингом и с AI, но не с бывшими главным делом его жизни физикой и математикой, где его личные достижения чрезвычайно высоки. Фон Нейману требовалось выполнять большие расчеты для атомной бомбы, но его не удовлетворяли доступные средства механизации, в поисках выхода он обращался к нескольким специалистам, но ничто из предложенного ими не могло решетить проблему. Требуемое он неожиданно для себя получил в результате случайной встречи с майором Германом Гольштейном, в ту пору ответственным со стороны военных за проект по созданию первого цифрового электронного компьютера ENIAC (Electronic Numerical Integrator and Computer). Гольдштейн познакомил фон Неймана с создателями ENIAC Джоном Моукли и Преспером Эккертом, уже тогда назвавшими свое детище «цифровой компьютер» (digital computer). К моменту знакомства они работали над своим вторым компьютером – двоичным программируемым EDVAC (Electronic Discrete Variable Automatic Computer). (Обратим внимание на слово Variable, тогда не знали слова программируемый.) В его составе было три основных компонента – процессор, память и управляющее устройство, позволяющие загружать и выполнять программы. Научный потенциал и способность к обобщению великого математика фон Неймана были существенно выше, чем у гениальных в своей инженерной ипостаси Преспера Эккерта и Джона Уильяма Моукли. Он быстро осознал значимость и великое будущее того, что перед ним предстало в форме инженерной разработки, соотнес принципы действия увиденного им с тем, что ранее узнал от Тьюринга и в обход всех административных и этических норм в июне 1945 года под своим именем предал гласности 101-страничный «Первый предварительный отчет об (The First Draft of a Report on the EDVAC). В этой, прямо скажем, не совсем корректной акции приял участие и Гольдштейн, что странно для отвечавшего за безопасность проекта EDVAC. Отчет разошелся по миру и, превратившись в public domain (общественное достояние), стал основой для множества других проектов, в этом, безусловно, его позитивное значение, однако куда смотрели спецслужбы США?
Публикация стала причиной конфликта между Эккертом и Моукли с одной стороны и Гольдштейном и Джоном фон Нейманом – с другой, поскольку она лишила создателей EDVAC права получить патент на изобретенный ими электронный цифровой компьютер. Как показало дальнейшее, интерес фон Неймана к компьютерам был временным, больше он ничего значимого в этом направлении не сделал, а Моукли и Эккерт оказались втянутыми в нечестную патентную войну, затеянную крупными корпорациями ради своих экономических интересов. В конечном счете они были лишены формального права считаться первыми. Суд отдал пальму первенства извлеченному из безвестности профессору Джону Атанасову (John Atanasoff, 1903–1995), совершенно неожиданно для него самого, поскольку он был автором электронного калькулятора, не способного к программрованию.
Связь архитектуры компьютеров с хранимой программой исключительно с именем фон Неймана сегодня рассматривается как яркий пример печальной закономерности при распределении славы, известной как «эффект Матфея». Ее сформулировал в 1988 году социолог Роберт Мертон (Robert Merton, 1910–2003), урожденный Меер Школьник, сын эмигрантов из России. Суть эффекта в том, что научное сообщество склонно приписывать избыточные заслуги успевшим стать знаменитыми, оно готово преувеличивать достижения тех, кто ранее смог составить себе имя, а достижения тех, кто еще не получил известности, как правило, преуменьшают или вообще не признают. Как сказано в Евангелии от Матфея: «Ибо каждому имеющему будет дано, и у него будет изобилие, а у неимеющего будет взято и то, что он имеет».
Что же привлекло фон Неймана в универсальной машине Тьюринга (UTM, Universal Turing Machine)? Для создания компьютера EDVAC, она практического смысла не имела, но как математик, он понял, что изложенная им эмпирическая теория нуждается в обосновании, иначе говоря, в своего рода «теореме существования». Теоремы существования предназначены для определения условий, при которых возможно решение той или иной задачи, они служат фундаментальной основой математического знания и образования. Эти теоремы нужны абстрактно мыслящим математикам, но они не вызывают интереса у специалистов из прикладной математики. Заслуга фон Неймана в том, что он инициировал создание теоретической компьютерной науки (TCS. Theoretical computer science), вот для нее и потребовалось нечто на роль закладного камня, тут как нельзя к месту кстати оказалась UTM, ставшая своего рода теоремой существования. Тогда же сложилось существующее по сей день разделение всей компьютерной науки на высокую TCS, у нас ее называют «теоретической информатикой», и на ее многочисленные прикладные направления. Граница между ними размыта, но очевидно, что она проходит где-то по линии отношения специалистов к UTM. Теоретикам UTM служит основой мировоззрения, а на работу практиков UTM никак не влияет, они могут спокойно жить, не задумываясь и даже ничего не зная о ней. В данном случае между теорией и практикой примерно такое же соотношение, как между собственно наукой и философией науки, совместно они образуют единый организм с высоким уровнем автономности двух составляющих – можно быть успешным исследователем и профаном в философии, но возможно и обратное.
Совсем незадолго до своей кончины, в 1958 году Джон фон Нейман снова обратился к AI, он подготовил материал для выступления в Йельском университете, известному как Силлимановская лекция (Silliman Lecture). Право прочесть ее является высокой академической привилегией, оно предоставляется ежегодно одному, начиная с 1901 года. Но выступить фон Нейман не успел, после его кончины наследники издали лекцию, переработанную в небольшую книгу «Компьютер и мозг», где работа мозга сравнивается с работой компьютера и предлагается рассматривать мозг как своего рода компьютер.
Нейрофизиологические предпосылки к созданию AI
Первые шаги в направлении моделирования мозга были предприняты в 30–40-х годах несколькими коллективами нейрофизиологов. Среди них лидировала группа, в которую входили биологи, психологи, математики и инженеры, работавшие в Чикагском университете под руководством Николая Петровича Рашевского (1899–1972), признанного отца математической биофизики. Рашевский – еще один наш гениальный соотечественник, неизвестный в России, выпускник Киевского университета. Во время Гражданской войны он пошел на Белый флот, затем попал в Турцию, позже преподавал в Русском народном университете, созданном в Праге русскими эмигрантами. Деятельность университета была прекращена коммунистическим правительством Чехословакии в 1949 году, но Рашевский проработал там только до 1924 года, а потом он перебрался в США и всю последующую жизнь посвятил науке.
Работы Рашевского стали продолжением трудов двух предшественников: одного из основоположников современной нейробиологии, лауреата Нобелевской премии по физиологии и медицине за 1906 год Сантьяго Рамона-и-Кахаль (1852–1934) и лауреата Нобелевской премии по физиологии и медицине в 1932 году Чарльза Шеррингтона (1857–1952). В начале 30-х годов Рашевский первым разработал нейронную модель мозга, за оригинальность взглядов его назвали «queer duck in biology», что можно перевести как «белая ворона в биологии». В 1938 опубликовал первую книгу по математической биофизике «Математическая биофизика: Физико-математические основы биологии» (Mathematical Biophysics: Physico-Mathematical Foundations of Biology), а в 1947 книгу по математической социологии «Математическая теория человеческих отношений» (Mathematical Theory of Human Relations).
Важнейшим достижением группы Рашевского стала концепция, допускающая возможность моделирования сознания на гипотетической машине, позже такую машину стали назвать машиной с конечным числом состояний (Finite State Machine, FSM). Как было показано в последующем, FSM является простейшим конечным автоматом. Особую роль в этой работе сыграли двое его коллег – нейрофизиолог Уоррен Мак-Каллок и математик Уолтер Питтс, ставшие основателями коннекционизма, им посвящена глава 5. Свои взгляды Мак-Каллок и Уолтер Питтс изложили в опубликованной 1943 году статье «Логическое исчисление идей, относящихся к нервной активности» (A Logical Calculus Immanent in Nervous Activity). Эта статья имеет историческое значение в силу того, что в ней рассматривается принципиальная возможность использования FSM для выполнения логических операций (logical calculus) и в ней впервые высказана идея создания необходимых для этой цели искусственных нейронных сетей (Artificial Neural Networks, ANN), способных выполнять логические функции булевой алгебры. Подробно эти вопросы освещаются в главе 6.
Глава 3 AI до Дартмутского семинара
C появлением компьютеров, которые, как следует из названия, были задуманы исключительно для математических расчетов, возникли попытки, основанные исключительно на интуиции, приспособить их к решению более интеллектуальных задач, например, играть в шахматы, переводить с естественного языка, доказывать теоремы, вступать в диалог с человеком и даже писать музыку.
Компьютерные шахматы
Идея, руководившая создателями первых шахматных программ, предельно проста – играя в шахматы, человек думает, значит и машина станет мыслящей, если мы обучим этой игре. С нынешних позиций ясно, что они совершали тривиальную ошибку – в шахматы играла не машина, а они сами, воплотившие свои представления о шахматах и свое знание игры в программе. Машина не играет, она выполняет эту программу и никакого собственного машинного разума! Судьба этого увлечения напоминает то, что случилось с тестом Тьюринга – сначала безграничный энтузиазм, потом медленное угасание и, в конечном итоге остается хобби, объединяющее энтузиастов-любителей.
А начало компьютерных шахмат было громким – первым в 1948 году Норберт Винер в своей «Кибернетике» упомянул, что, по его мнению, можно создать играющую программу. Вскоре Клод Шеннон опубликовал статью «Программирование компьютера для игры в шахматы» и, наконец, в 1951 Алан Тьюринг разработал на бумаге программу, способную по его замыслу играть в шахматы. Что еще нужно для старта, если трое великих дали добро? В среде авторов шахматных программ возникло стойкое убеждение, что они создают не просто программу, а нечто важное, что в последующем можно будет использовать и в иных целях. Они заразили этой идеей общественность и с тех пор и до десятых годов нынешнего века средства массовой информации периодически сообщали на весь мир о громких победах, одержанных шахматными программами, внушая преклонение перед умным компьютером.
Достаточно вспомнить как в масс-медиа подавались поражения, нанесенные компьютерами гроссмейстерам Михаилу Талю, Бенту Ларсену, Гарри Каспарову, Владимиру Крамнику и другим. Однако во втором десятилетии XXI века успехи Слабого AI показали, что шахматные программы – это всего лишь обычные программы, как тут ни вспомнить Эффект AI. Они работают на мощных компьютерах, поэтому опережают человека по скорости перебора вариантов и не более того. Кто-то сказал, что человек против машины на шахматной доске – это то же самое, что человек против погрузчика в подъеме штанги. Шахматы не сделали компьютеры ни на йоту умнее, следовательно с точки зрения AI пользы от них нет и быть не может. Однако как хобби компьютерные шахматы имеют полное право на существование, причем поединки между программами гораздо полезнее, чем машины с человеком. Примером может стать матч, состоявшийся в 2019 году, между свободными шахматными движками Leela Chess Zero и Stockfish. Что же касается игровых систем типа Alpha Zero, основанных на машинном обучении, то для них игра не самоцель, испытательный полигон.
70 лет назад в компьютерной области на равных с американцами конкурировали англичане с их наработками по проекту ULTRA. Под руководством Морриса Уилкса (Maurice Wilkes, 1913–2010) они смогли раньше американцев построить компьютер с хранимой программой EDSAC, а в 1951 году кондитерская компания J. Lyons (!) построила первый специализированный компьютер для бизнес-приложений Lyons Electronic Office (LEO I). На протяжении нескольких лет между двумя странами сохранялся паритет, но в последующем Британия уступила из-за несравнимо меньших по своим масштабам инвестиций в исследования и разработки, а главное в производство.
Имея такую базу, за пять лет до Дартмутского семинара, группа под руководством Кристофера Стречи (Christopher Strachey, 1916–1975), куда вошли ученые из Манчестерского и Кембриджского университетов, задалась целью написать программу, способную на первых порах играть в шашки и решать простейшие шахматные задачи. Сначала они намеревались воспользоваться компьютером ACE (Automatic Computing Engine), создаваемым при участии Тьюринга, но в силу ряда технических причин он не был введен в эксплуатацию. С задержкой на год определенный успех был достигнут, когда та же программа была запущена на Mark I компании Ferranti. Позже Стречи первым попытался научить компьютер Mark II Manchester Electronic Computer исполнять музыку. Алан Тьюринг совместно с Дэвидом Чамперноуном пытался запустить на том же Ferranti Mark I свою программу Turochamp, способную сыграть полную шахматную партию, но по тем временам это оказалось технически невозможно.
В Америке первой игровой была шашечная программа для первого серийного мэйнфрейма IBM 701, ее написал сотрудник IBM Артур Самуэль (Arthur Samuel, 1901–1990), опираясь на результаты, опубликованные Стречи. По примеру Самуэля и в ряде университетов вскоре были созданы шашечные программы, на соревновании между ними в 1962 году победило детище Самуэля.
В СССР первая шахматная программа была создана 1963 году в Институте теоретической и экспериментальной физики (ИТЭФ) под руководством Александра Семеновича Кронрода (1921–1986), опрометчиво определявшего роль компьютерных шахмат так: «шахматы – это дрозофила искусственного интеллекта». Специалисты из Института Проблем Управления (ИПУ) занялись шахматами, когда в их распоряжении оказались купленные в Великобритании мэйнфреймы ICL, содержательных приложений для них не было, оставались шахматы, таковы гримасы плановой экономики. В 1972 году состоялся матч с участием написанной ими «Каиссы» и подписчиков «Комсомольской правды», в нем победили читатели. Больше против людей она не играла, однако с переменным успехом соревновалась с другими шахматными программами, в том числе весьма именитыми, в 1980 году состоялось последнее выступление «Каиссы» на чемпионате мира. Была еще и программа «Пионер», создававшаяся под руководством гроссмейстера и ученого М. М. Ботвинника. На этом советская шахматная эпопея закончилась, тому были еще и серьезные политические причины. Многие из создателей «Каиссы» оказались в числе нежелательных для партийной верхушки диссидентов и эмигрировали. Но главное, к тому времени шахматы перестали относить к AI, в то время в этой области вся надежда была на экспертные системы.
Первые попытки машинного перевода
С появлением компьютеров у нескольких ученых одновременно возникло желание применить их к автоматизированному переводу с одного естественного языка на другой (Machine Translation, MT). Но задача оказалась сложнее, чем они предполагали, только через полвека, когда MT стал одним из направлений в AI, бесплатные сервисы условно справляются с переводом текстов на уровне, достаточном для ознакомления с содержанием, но делают они это чисто формально и не имеют ничего общего с теми первыми системами.
У задачи МТ есть своя давняя предыстория. В IX веке арабский криптограф Аль-Кинди хотел упростить процесс перевода, он применил методы, которые мы сегодня отнесли бы частотному анализу, теории вероятностей и статистике. В последующем, в XVII–XIX веках предпринимались и теоретические, и даже практические попытки упростить перевод с помощью разного рода механических устройств. За редчайшим исключением все они заканчивались провалом, относительного успеха добился лишь Жорж Арцруни, француз армянского происхождения, эмигрант из России, получивший образование в Санкт-Петербургском университете. Он смог в 30–40-е годы прошлого века создать механизм помогавший переводчику. В СССР механизацией перевода занимался Петр Петрович Смирнов-Троянский (1894–1950), его машина представляла собой фотоаппарат, синхронизированный с печатной машинкой, автор получил на нее патент, но она была слишком сложной и осталась невостребованной.
Первенство в использовании электронного компьютера для MT принадлежит математику Уоррену Уиверу (Warren Weaver, 1894–1978). В 1947 году он выразил свой замысел в форме письма, адресованного Норберту Винеру, а позже в 1949 году оформил его, как тогда было приято, в виде пространного меморандума. В нем Уивер обосновал целый ряд подходов к решению задачи MT, в том числе ориентацию на нейронные сети. Идеи Уивера были приняты, он продолжил исследования в Массачусетском технологическом институте. В начале 50-х им была написана программа MT, работавшая на компьютере SWAC (Standards Western Automatic Computer), одном из двух уникальных компьютеров, разработанных в 1950 году Гарри Хаски (Harry Huskey, 1916–2017) для Национального бюро стандартов США. В 1954 году удалось перевести несколько предложений с русского на английский, но дальше дело не пошло, однако работа стимулировала исследования в области MT.
Более громкую и куда менее заслуженную известность получил другой эксперимент по МТ, известный как Джорджтаунский. Если работа Уивера была глубоким исследованием, то это начинание – ни чем иным, как типичным примером «наивного» MT. Его авторы стремились побыстрее решить актуальную на тот момент задачу – перевод технической документации с русского на английский. В эксперименте участвовали представители IBM и Джорджтаунского университета. А отличие от Уивера авторы пошли к цели в лоб – они загрузили в мэйнфрейм IBM 701 программу, оперировавшую 250 словами и 6 грамматическим правилами. Русские и английские слова и правила хранились на магнитных барабанах, переводимые предложения вводились с перфокарт, а результат выводился на принтер. Алгоритм перевода заключался в формальном подборе маски из английских слов, которая накладывалась на последовательность русских слов. Избранный метод неплохо подходил для перевода тривиальных фраз типа «качество угля определяется калорийностью» транслитерированной в «kachyestvo uglya opryedyelyayetsya kaloryiynostjyu», именно эта фраза почему-то оказалась первой из переведенных. Для более сложных фраз этот метод явно не годился. Если учесть только стоимость IBM 701, составлявшую порядка 1 миллиона долларов того времени, когда автомобиль стоил около 1000, то рациональным все, что было сделано в Джорджтаунском университете, нельзя признать никак. Тем не менее этот эксперимент, невзирая на примитивность по-своему интересен, он остался в истории как редкий для пятидесятых случай применения компьютера не по прямому назначению.
Несмотря на очевидную ограниченность решения, внимание к Джорджтаунскому эксперименту оказалось колоссальным, практически вся американская пресса писала о достигнутом успехе, используя самые восторженные эпитеты. Как только ни называли компьютер IBM: и «машиной-билингвой», и «вундеркиндом-полиглотом», и «электронным мозгом, переводящим с русского». Впрочем, можно предположить, что Джорджтаунский эксперимент потребовался корпорации IBM, скорее всего, для поднятия реноме, она задержалась на старте компьютерной гонки. На первых порах в ней лидировала компания UNISYS, прославившаяся тем, что ее компьютер UNIVAC 1 помог предсказать победу Дуайта Эйзенхауэра на президентских выборах 1952 года. Во многом благодаря рекламе машинного перевода за короткий срок IBM удалось стать монополистом на рынке мэйнфреймов. И еще стоит учесть, что эксперимент с переводом имел явно выраженный политический характер, коммунистическая угроза рассматривалась как вполне реальная со всеми вытекающими выводами.