Две проблемы с роботами
Учитывая очевидные ограничения компьютеров по сравнению с человеческим мозгом, несложно понять, почему нам до сих пор не удается научить компьютеры решать две ключевые задачи, которые человеческий мозг выполняет автоматически, без всякого труда. Эти задачи — распознавание образов и следование здравому смыслу — уже более полувека не даются ученым. Именно поэтому в основном у нас до сих пор нет роботов-горничных, роботов-дворецких и роботов-секретарей.
Первая из названных задач — задача распознавания образов. Роботы видят намного лучше человека, но не понимают, что видят. Входя в комнату, робот раскладывает ее изображение на множество цветных точек, а затем, обрабатывая точки, получает набор линий, окружностей, квадратов и прямоугольников. После этого робот пытается соотнести полученную мешанину деталей по очереди с каждым из объектов, хранящихся в его памяти, — чрезвычайно нудная задача даже для компьютера. После многих часов вычислений ему, может быть, удастся соотнести линии на картинке со стульями, столами и людьми, находящимися в комнате. В отличие от роботов, мы, входя в комнату, за долю секунды схватываем взглядом стулья, письменные столы и людей. В самом деле, человеческий мозг — это по сути машина для распознавания образов.
Кроме того, у роботов нет здравого смысла. Роботы могут слышать намного лучше, чем люди, но они не понимают, что слышат. Рассмотрим, к примеру, следующие утверждения.
•Дети любят сладости, но не любят наказания.
•За веревку можно тянуть, но нельзя толкать.
•Палкой можно толкать, но нельзя тянуть.
•Животные не умеют говорить и не понимают по-английски.
•От вращения у человека может закружиться голова.
Для нас каждое из этих утверждений очевидно и проистекает из обычного здравого смысла. У роботов все не так. Не существует ни одного положения логики, ни одной строки программного кода, в которых бы утверждалось, что бечевкой ничего нельзя толкнуть. Сами мы убедились в истинности этих и многих других «очевидных» утверждений на опыте, их никто не вкладывал в готовом виде нам в память.
При подходе «сверху вниз» основная проблема заключается в том, что для программирования человеческого здравого смысла, необходимого для имитации нашего мышления, потребовалось бы слишком много строк кода. К примеру, на описание принципов здравого смысла в объеме, доступном шестилетнему ребенку, ушли бы сотни миллионов строк. Ганс Моравек (Hans Moravec), бывший начальник лаборатории искусственного интеллекта в Университете Карнеги-Меллон, жалуется: «До сего дня программы ИИ не способны продемонстрировать ни крупицы здравого смысла. К примеру, медицинская диагностическая программа способна прописать антибиотик, если предложить ей для исследования сломанный велосипед. Дело в том, что у нее нет ни модели человека, ни модели болезни, ни модели велосипеда».
Тем не менее некоторые ученые упрямо верят, что единственное препятствие к овладению здравым смыслом — недостаток вычислительных мощностей. Они считают, что масштабный национальный проект наподобие Манхэттенского (в рамках которого была создана атомная бомба) наверняка смог бы преодолеть все препятствия и решить для роботов проблему здравого смысла. В 1984 г. была запущен проект под названием CYC, призванный создать «энциклопедию мысли» для роботов. Однако за прошедшие с тех пор несколько десятилетий все усилия участников проекта не увенчались сколько-нибудь серьезным успехом.
Цель проекта CYC была проста: освоить «100 млн вещей — примерно столько, сколько знает о мире средний человек, — к 2007 г.». Этот срок, как и несколько предыдущих, пришел и прошел, а успех так и не был достигнут. В ходе работы были Достигнуты многие формальные рубежи из тех, что намечали для себя инженеры CYC, но ученым и по сей день не удалось ни па шаг приблизиться к овладению основами разума.