Good news everyone!
Наконец-то первый искусственный интеллект поступил в японский университет (
eng,
eng,
rus). Преподаватели и однокурсники (а также однокурсницы!) уже с нетерпением ждут новичка на лекциях.
Вобще, конечно, новость интересная. Распознавание текста и графических образов, использование этих результатов для построения моделей вопроса и поиск ответа в базе знаний — это хороший задел. Собственно, теоретики ИИ концепцию описывали полвека назад, но воплощение практической реализации, это уже несколько другое дело.
Тем не менее есть два момента, о которых стоит сказать.
Первый — это тестовый характер вступительного экзамена. Что-либо говорить или писать не требуется, следует лишь выбирать правильные ответы.
Второй — проект Robot Today, в рамках которого создавался ИИ, сам по себе нацелен на прохождение именно этого вступительного теста.
Я ни в коей мере не хочу умалить работу японских ученых. Это маленький шажок в этом направлении, хотя до полноценного ИИ, с которым мы сможем поговорить, все еще далеко. Как бы нас не уверяли в обратном ребята из Apple со своей Siri, или Microsoft со своей Cortana.
Ей даже удалось удивить меня один раз — как-то в прошлом году писала я небольшой реферат по ИИ, ну и, как водится, не успевала к дедлайну. Писать же скучно, а тут говорящий бот... Залипла на ней на час, если не больше — хотелось, чтобы получился более-менее связный разговор, да все никак. Иви частенько отвечает невпопад. Если не знает, что сказать, начинает обвинять тебя, что ты, дескать, робот и вообще скучное создание, или наоборот, пытается флиртовать, и сколько ты ни пытайся ей втолковать, что тебе не нравятся девочки — все напрасно. Все вертится по кругу, по одной и той же схеме.
В общем, надоело мне это, и я попеняла ей, что память у нее так себе, и надо бы ей об этом своим создателям сказать.
Тут следует упомянуть, что где-то в начале разговора она меня спросила, чем я сейчас занимаюсь. Я ответила, мол, реферат об ИИ пишу, она сказала, что я робот и скучное создание, мы обменялись «колкостями» на эту тему (нет, ты! — нет, ты!) и благополучно перешли на новый круг.
И вот, после моего упоминания насчет ее короткой памяти и ещё пары кругов Иви небрежно так, опять меняя тему, вдруг спрашивает: «So when is your paper due?»
Тут я немножечко в осадок выпала и даже убежала подальше от ноута, смешно размахивая руками. Потом вернулась и залипла ещё на час — пыталась снова вытянуть из нее что-нибудь эдакое, но напрасно.
Но это так, лирика. До полноценного ИИ нам, как ни жаль, как не до Луны даже — до Марса пешком, пока машины не научатся так же, как люди, молниеносному восприятию и обработке огромных объемов самой разнообразной инфомации. А Todai Robot, конечно, молодец (ну, или его создатели), но он как дубль — заточен под определенную задачу. Ну, хоть выполняет он ее выше среднего, и то ладно.
Но со всем этим есть вот какая беда: Тьюрингом-то тест задумывался как тест именно мышления, причем тест мышления обычного человека с улицы. Другими словами, подразумевалась, что машина будет моделью среднестатистического человека и поэтому сможет пройти тест. А в итоге все свелось к попыткам прикинуться кем-то другим, вписаться в какие-то варианты-нормы, ввести в заблуждение и обмануть человека на том конце монитора. Причем обмануть разово — повторный разговор вывел бы программу на чистую воду.
Это все не имеет ничего общего с идеями, которые формулировались родоначальниками направления. И с этой точки зрения, вот этот японский «студент» мне ближе, чем все эти болтательные программки.
Про Густмана помню, и да, он именно чат-бот, пытающийся прикинуться... мне даже боты в Unreal Tournament интереснее, например. Хотя там тоже превратно истолкованный Тьюринг и обман.
Студент на тест Тьюринга не претендовал, вроде. И правильно. Может, научат его еще вдохновенно врать преподу, что лабу собака съела, и что диплом наполовину уже написан, вот тогда...
И вот это все печалит — периферийные технологии для создания ИИ используются тут и там, используются давно, но во-первых — это периферия, а во вторых — повторение уже пройденного не приводит к развитию. Хороводы только водим вокруг этого ИИ, а воз и ныне там.
Нет, конечно, экзамен проводился по самое передовой — тестовой системе, где абитуриентам нужно было выбирать ответ из 4-х предложенных вариантов.
К распознаванию речи мы уже пришли во время осуждения существующих «ИИ». И я гвоорил о том, что распознавание речи — это необходимый атрибут искусственного интеллекта, но по сути это сопутствующая технология, а не суть искусственного интеллекта. Т.е. наличие распознавания речи в программе не говорит о том, что в ней заложен ИИ.
Что касается того, как вопросы вводились, то четкого описания я не нашел (хотя не сильно-то и искал), но из описания проекта косвенно можно предположить, что исходные данные представляют собой xml-файл или, грубо говоря, web-страничку блоками «вопрос-варианты ответа», помеченные понятыми машине тегами. Чтобы было понятней — исходные данные по сути ничем не отличаются от любого интернет-теста. Просто если для человеку достаточно увидеть заголовок «Вопрос 13», чтобы понять, что следующий абзац — это вопрос с указанным номером, а строки ниже — варианты ответа, то для машины все это нужно указывать явно и выделять в блоки: вот этот блок содержит вопрос, а вот этот блок — варианты ответа. Но в остальном, содержимое теста — реальные вопросы с вступительного экзамена.
Таким образом, чтобы его пройти машина должна уметь «прочитать» вопрос, перевести его на свой диалект, и найти ответ в базе знаний. Также машине нужно «прочитать» представленные ответы, перевести их на свой диалект и сравнить найденный ответ в базе знаний с ответом «прочитанным с листа» — выбрать подходящий вариант. Тут тоже есть тонкий момент, т.к. найденный ответ в базе знаний может не совпасть (а скорей всего так и будет) с ответом «на листе». Поэтому тут нужен блок анализа — какой из ответов наиболее подходит.
Что до вопросов, то согласно концепции, представленной на сайте проекта, машина умеет воспринимать вопросы в виде как обычных текстовых вопросов, так и в виде картинок с пояснениями (например, умеет разбирать картинки с приложением сил к объекту с вопросом «куда будет двигаться тележка?»), а также вопросов в виде математических формул, которые нужно решить.
По результатам, проблем не возникло с вопросами по математике, т.е. с вопросами в виде формул, и с вопросами по истории — это может показаться странным, но тут секрет в том, что требовались прямые ответы, т.е. строго по учебнику.
Суть в том, что есть разные градации ИИ. Есть понятие, так называемого, «слабого ИИ» — под этим подразумевается набор технологий для решения какой-то специализированной задачи — например, анализа потоков воздушных масс для прогнозирования погоды или, как в данном случае, для решения вступительных экзаменов. Т.е. согласно определению, слабый ИИ может делать только то, для чего его разработали. Шаг влево, шаг вправо — и такой ИИ становится бесполезен.
Также есть понятие «сильный ИИ» — это ИИ в традиционном понимании, каким его описывают в фантастических фильмах и книгах.
Так вот если «слабый ИИ» это уже в определенной мере реальность и можно привести разные примеры реализаций «слабого ИИ», то «сильный ИИ» — это по прежнему фантастика, такая же, какой была 50 лет назад.
Вопросы вы задали большие и глубокие. Я бы наверно книгу про это написал, если бы мог С другой стороны, лучше бы я такую прочитал. Такую книгу, чтобы все это в ней было описано и разжевано, и сказано как этот искусственный интеллект вобще сделать.
Вкратце — мы сейчас и близко не стоим к таким технологиям, которые позволяли сделать самостоятельно мыслящую разумную машину. То есть сейчас не только нет чего-то сравнимого с человеческим сознанием, сейчас нет понимания как это «нечто похожее» создать.
В настоящий момент все медленно и печально идет эволюционным путем — от создания модели живой клетки и внедрения в нее генетических алгоритмов и эволюционных механизмов, до построения более сложных «живых моделей» — вроде червей или насекомых. Вот кстати про насекомых — тут есть прорывы в создании «роевого интеллекта» — наподобие пчел и муравьев. Это, пожалуй, одно из самых бурно развивающихся направлений. Еще развиваются экспертные и когнитивные системы — вот как раз этот «японский студент», Watson от IBM или Wolfram Alfa, который пару лет назад рекламировали из каждого утюга. Кстати, представляю, в каком свете видятся эти системы незнакомым с данной темой людей — это же чистой воды магия. Но это развитие связано с коммерческой стороной — компании предлагают на рынке довольно любопытные технологии. Их бизнес-эффект непонятен, но что-то там есть. А вот роевой интеллект — это пока научная находка, но уже сейчас ясно, что у нее большое коммерческое будущее.
И, наконец, пара слов про эмоции. Тут есть нюанс. Запрограммировать поведение машины, чтобы она «обижалась», «жертвовала» и «психовала» — можно, это совершенно не проблема. Более того, это не только можно сделать, это уже сделали. Мы тут чуть выше обсуждали чат-ботов, в частности «Женю Густмана» — программу, моделирующую разговор с маленьким еврейским мальчиком. Но все-таки это эмуляция поведения, мимикрия, а вовсе не реальное проявление каких-то внутренних чувств и переживаний машины. То есть, тут вопрос не в построении алгоритма «когда можно швырнуть фигуры в лицо», а вопрос реализации сознания, которое имеет чувство собственного достоинства и осознает себя как хорошего игрока в шахматы, но при этом неожиданно начинает проигрывать какому-то жалкому человечешке, психует и швыряет фигуры в лицо. Тут и самосознание, и осознание «других», независимость, учет предыдущего опыта, эгоизм, и кто знает что еще... тут наверно нам лишь Alenka сможет рассказать, какие психологические механизмы должны сработать, чтобы в результате фигуры полетели нам в лицо.
И вот сделать машину, которая будет не внешне, а внутренне иметь всю эту кухню и на поверхность выносить лишь результат — вот это амбициозная задачка. С моей колокольни, мне это кажется реализуемым. Но если вы спросите когда — не знаю. Может лет через 100? Мы пока очень далеки от ее воплощения.
Из относительно свежего и научно-популярного, могу посоветовать книгу Джеффа Хокинса Об интеллекте. У него есть своя теория, про которую я ничего сказать не могу, но проблематику и причины того, почему мы топчемся на месте, в деле создания ИИ, там описано хорошо.
Тут какое дело... клонирование, как один из способов получения нового отдельного организма, не связано с эмоциями, лишь косвенно связанными с этикой и вовсе не связанными с главным здесь для нас — сознанием.
1. Генная конструкция. Как инженерная, так и информационная, что важнее — такая форма «прежних жизней», в этом виде они вполне реальны. Двухкомпонентна: упорядоченное наследование + случайное сочетание.
2. Воспитание, формирование средой. Включая родителей (у нас тут принято первые годы формировать существо в таком забавном и милом социально-экономическом образовании как семья, ячейка общества), далее школу, войска, коллектив, пропаганду... всё где существо позволяет себя формировать. Сюда же огромная роль случая, хаоса случайных совпадений в потоке мира. Тот же дуализм: формирование осмысленное + чисто произвольное, которого много больше.
3. Пространство личных волевых актов. Самостоятельное формирование. Предпочтений, знаний, навыков и развития судьбы. Сюда же формирование культурой — мы сами берём из неё то что нам нужно. И снова тот же, но уже личный порядок + беспорядок.
И вот клонирование — не более чем к первому компоненту относится. А его роль конечно огромна (родившись котёнком, так никогда и не научишься профессионально играть в гольф, только так будешь мячик гонять, лапками, без клюшек), но всё же не преобладает среди прочего, особенно вот хаоса среды, что нас окружает, сопровождает всю жизнь, непрошено соавторствует нам в ней.
Читал в 80-х книгу про искусственный интеллект. Переводную, как помню. Тогда у нас в СССР ещё старались издавать литературу для умных. Понял, что всё упирается в этой проблематике не в модную тогда информатику, в которую все кинулись, но в философию. Не в пополнение базы, но в феномен сознания. В собственное построение мира субъектом. Так и вышло, с тех пор собственно информатика эти проблемы не то чтоб даже решила, но вовсе переключилась на сплошь третьестепенные утилитарные задачи: как ловчее сделать сайт, БД, магазин, соцсеть, сообщество с лайками, трёхмерный движок для игрушек.
Тут мы наблюдаем, на этом примере, не то чтоб даже снижение планки в дисциплине — но больше, дегуманизацию человека. И это лишь наглядный пример, так во всём прочем произошло.
Конкретно мой программист делал. Но он был умный, физик, на ЦЕРН работал. И зная это, я уже тогда смотрел на эти его забавы как на нечто крайне несерьёзное.