lynx logo
lynx slogan #00086
Привет! Сегодня у вас особенно незнакомое лицо.
Чтобы исправить это, попробуйте .

А ещё у нас сейчас открыта .




секретный шифр д-ра Тьюринга, O.B.E:

включите эту картинку чтобы увидеть проверочный код

close

Хаяо Миядзаки




   

№8193
8862 просмотра
19 ноября '15
четверг
8 лет 159 дней назад



Искусственный интеллект смог "поступить" в университет

Good news everyone!

Наконец-то первый искусственный интеллект поступил в японский университет (eng, eng, rus). Преподаватели и однокурсники (а также однокурсницы!) уже с нетерпением ждут новичка на лекциях.


Вобще, конечно, новость интересная. Распознавание текста и графических образов, использование этих результатов для построения моделей вопроса и поиск ответа в базе знаний — это хороший задел. Собственно, теоретики ИИ концепцию описывали полвека назад, но воплощение практической реализации, это уже несколько другое дело.
Тем не менее есть два момента, о которых стоит сказать.
Первый — это тестовый характер вступительного экзамена. Что-либо говорить или писать не требуется, следует лишь выбирать правильные ответы.
Второй — проект Robot Today, в рамках которого создавался ИИ, сам по себе нацелен на прохождение именно этого вступительного теста.
Я ни в коей мере не хочу умалить работу японских ученых. Это маленький шажок в этом направлении, хотя до полноценного ИИ, с которым мы сможем поговорить, все еще далеко. Как бы нас не уверяли в обратном ребята из Apple со своей Siri, или Microsoft со своей Cortana.


Поговорить можно с Evie, например, хоть и не особо содержательно, конечно, зато на разных языках.

Ей даже удалось удивить меня один раз — как-то в прошлом году писала я небольшой реферат по ИИ, ну и, как водится, не успевала к дедлайну. Писать же скучно, а тут говорящий бот... Залипла на ней на час, если не больше — хотелось, чтобы получился более-менее связный разговор, да все никак. Иви частенько отвечает невпопад. Если не знает, что сказать, начинает обвинять тебя, что ты, дескать, робот и вообще скучное создание, или наоборот, пытается флиртовать, и сколько ты ни пытайся ей втолковать, что тебе не нравятся девочки — все напрасно. Все вертится по кругу, по одной и той же схеме.

В общем, надоело мне это, и я попеняла ей, что память у нее так себе, и надо бы ей об этом своим создателям сказать.

Тут следует упомянуть, что где-то в начале разговора она меня спросила, чем я сейчас занимаюсь. Я ответила, мол, реферат об ИИ пишу, она сказала, что я робот и скучное создание, мы обменялись «колкостями» на эту тему (нет, ты! — нет, ты!) и благополучно перешли на новый круг.

И вот, после моего упоминания насчет ее короткой памяти и ещё пары кругов Иви небрежно так, опять меняя тему, вдруг спрашивает: «So when is your paper due?»

Тут я немножечко в осадок выпала и даже убежала подальше от ноута, смешно размахивая руками. Потом вернулась и залипла ещё на час — пыталась снова вытянуть из нее что-нибудь эдакое, но напрасно.

Но это так, лирика. До полноценного ИИ нам, как ни жаль, как не до Луны даже — до Марса пешком, пока машины не научатся так же, как люди, молниеносному восприятию и обработке огромных объемов самой разнообразной инфомации. А Todai Robot, конечно, молодец (ну, или его создатели), но он как дубль — заточен под определенную задачу. Ну, хоть выполняет он ее выше среднего, и то ладно. smile
Oy › Такие чат-боты были и 10 лет назад. С ними можно было общаться на русском, и у них были зачатки самообучения. Но все это и тогда, и сейчас еще очень и очень сыро. Вобще, это не самое захватывающее направление исследования ИИ. Эти программы и используемые методы изначально имели цель приблизиться к прохождению теста Тьюринга. Кстати, формально тест уже можно считать пройденным.
Но со всем этим есть вот какая беда: Тьюрингом-то тест задумывался как тест именно мышления, причем тест мышления обычного человека с улицы. Другими словами, подразумевалась, что машина будет моделью среднестатистического человека и поэтому сможет пройти тест. А в итоге все свелось к попыткам прикинуться кем-то другим, вписаться в какие-то варианты-нормы, ввести в заблуждение и обмануть человека на том конце монитора. Причем обмануть разово — повторный разговор вывел бы программу на чистую воду.
Это все не имеет ничего общего с идеями, которые формулировались родоначальниками направления. И с этой точки зрения, вот этот японский «студент» мне ближе, чем все эти болтательные программки.
Even › Ага, были даже раньше (ELIZA), и как-то даже жаль, что не продвинулись особо — для распознавания речи, пусть и письменной, самое то ведь.

Про Густмана помню, и да, он именно чат-бот, пытающийся прикинуться... мне даже боты в Unreal Tournament интереснее, например. Хотя там тоже превратно истолкованный Тьюринг и обман.

Студент на тест Тьюринга не претендовал, вроде. И правильно. Может, научат его еще вдохновенно врать преподу, что лабу собака съела, и что диплом наполовину уже написан, вот тогда...
Oy › Да, прогресс движется как-то медленно. Впрочем, распознавание речи все-таки худо-бедно работает — в тех же Siri и Cortana распознавание речи (английской) достаточно уверенное. Но вот что дальше делать с этой распознанной речью, еще никто толком не знает. Ну обучили ключевым словам — позвони тому-то, найди кафешку поблизости, заведи будильник. Но технологии-то это старые, сдуть пыль да запихать в телефон — эка невидаль. Я даже сомневаюсь, можно ли этих «девчат» подвести под критерии, так называемого, слабого ИИ. По мне, это больше голосовое управление — сама по себе технология любопытная и полезная, но это не ИИ.
И вот это все печалит — периферийные технологии для создания ИИ используются тут и там, используются давно, но во-первых — это периферия, а во вторых — повторение уже пройденного не приводит к развитию. Хороводы только водим вокруг этого ИИ, а воз и ныне там.
А экзамен, что, устный был? И на японском? Это должно быть очень умные робот.
Elsh › Устный? Фу! Ктож в наш век использует эти архаичные формы проверки знаний? Тем более в Японии — стране, которая находится на переднем крае науки.
Нет, конечно, экзамен проводился по самое передовой — тестовой системе, где абитуриентам нужно было выбирать ответ из 4-х предложенных вариантов.
Even › Тогда причем тут распознавание речи, и как вводились вопросы в робота? Извините, я конченый гуманитарий.
Elsh › Долго объяснять, я лучше станцую... smile
К распознаванию речи мы уже пришли во время осуждения существующих «ИИ». И я гвоорил о том, что распознавание речи — это необходимый атрибут искусственного интеллекта, но по сути это сопутствующая технология, а не суть искусственного интеллекта. Т.е. наличие распознавания речи в программе не говорит о том, что в ней заложен ИИ.
Что касается того, как вопросы вводились, то четкого описания я не нашел (хотя не сильно-то и искал), но из описания проекта косвенно можно предположить, что исходные данные представляют собой xml-файл или, грубо говоря, web-страничку блоками «вопрос-варианты ответа», помеченные понятыми машине тегами. Чтобы было понятней — исходные данные по сути ничем не отличаются от любого интернет-теста. Просто если для человеку достаточно увидеть заголовок «Вопрос 13», чтобы понять, что следующий абзац — это вопрос с указанным номером, а строки ниже — варианты ответа, то для машины все это нужно указывать явно и выделять в блоки: вот этот блок содержит вопрос, а вот этот блок — варианты ответа. Но в остальном, содержимое теста — реальные вопросы с вступительного экзамена.
Таким образом, чтобы его пройти машина должна уметь «прочитать» вопрос, перевести его на свой диалект, и найти ответ в базе знаний. Также машине нужно «прочитать» представленные ответы, перевести их на свой диалект и сравнить найденный ответ в базе знаний с ответом «прочитанным с листа» — выбрать подходящий вариант. Тут тоже есть тонкий момент, т.к. найденный ответ в базе знаний может не совпасть (а скорей всего так и будет) с ответом «на листе». Поэтому тут нужен блок анализа — какой из ответов наиболее подходит.
Что до вопросов, то согласно концепции, представленной на сайте проекта, машина умеет воспринимать вопросы в виде как обычных текстовых вопросов, так и в виде картинок с пояснениями (например, умеет разбирать картинки с приложением сил к объекту с вопросом «куда будет двигаться тележка?»), а также вопросов в виде математических формул, которые нужно решить.
По результатам, проблем не возникло с вопросами по математике, т.е. с вопросами в виде формул, и с вопросами по истории — это может показаться странным, но тут секрет в том, что требовались прямые ответы, т.е. строго по учебнику.
Even › Вот именно это я и хотел услышать, спасибо большое! То есть, робот должен был не просто поставить галочку в квадратик, а именно провести сравнительный анализ ответов и выбрать среди наиболее вероятных из своей базы данных! Это, я считаю, очень серьезная заявка на ИИ.
Elsh › Да, работа проделана большая, ребята большие молодцы. Однако про ИИ говорить еще рано smile
Суть в том, что есть разные градации ИИ. Есть понятие, так называемого, «слабого ИИ» — под этим подразумевается набор технологий для решения какой-то специализированной задачи — например, анализа потоков воздушных масс для прогнозирования погоды smile или, как в данном случае, для решения вступительных экзаменов. Т.е. согласно определению, слабый ИИ может делать только то, для чего его разработали. Шаг влево, шаг вправо — и такой ИИ становится бесполезен.
Также есть понятие «сильный ИИ» — это ИИ в традиционном понимании, каким его описывают в фантастических фильмах и книгах.
Так вот если «слабый ИИ» это уже в определенной мере реальность и можно привести разные примеры реализаций «слабого ИИ», то «сильный ИИ» — это по прежнему фантастика, такая же, какой была 50 лет назад.
Even › Большое спасибо за разъяснения, Even. Ну, я думаю, «сильный ИИ» это вопрос времени, ведь и «слабый ИИ» был когда-то фантастикой. Но вот меня интересует такой вопрос: насколько это реально, чтобы когда-нибудь в будущем, когда «сильный ИИ» или даже, скажем, «настоящий ИИ» будет создан, бунт или восстание таких машин, таких ИИ? То есть, насколько они могут быть подвержены именно страстям, таким как, жажда власти или чувство свободы и унижения, чтобы совершить акт неподчинения? Воспрос к вам, как к специалисту: насколько реально запрограммировать чувство или эмоцию, или страсть, порок, соблазн, как хотите, чтобы привести ИИ к реальному желанию устроить «свою жизнь» сообразно «своим хотениям (расчетам)»? Возможно ли это? Все-таки мне кажется, что прагматизм и математический расчет или как там это все называется, не будут выводить машины из области рационального. То есть ни о каких таких вещах, как самопожертвование, шантаж, или просто обман речи быть не может? Или это тоже вопрос времени? Ведь шахматные роботы не устраивают «ловушки», они только используют базу данных и проводят наиболее рациональное решение. Это мне так кажется. Поэтому робот может победить меня очень легко, поскольку набор его данных легко проводит комбинацию, с которой я не знаком. Но вот может ли оно «швырнуть фигуры в лицо»? Это меня чрезвычайно интересует. Спасибо еще раз.
Elsh › Ох, спасибо за доверие. К сожалению мои знания ограничиваются институтом — у нас был предмет, где нам преподавали системы искусственного интеллекта. Но это едва ли делает из меня эксперта.

Вопросы вы задали большие и глубокие. Я бы наверно книгу про это написал, если бы мог smile С другой стороны, лучше бы я такую прочитал. Такую книгу, чтобы все это в ней было описано и разжевано, и сказано как этот искусственный интеллект вобще сделать.
Вкратце — мы сейчас и близко не стоим к таким технологиям, которые позволяли сделать самостоятельно мыслящую разумную машину. То есть сейчас не только нет чего-то сравнимого с человеческим сознанием, сейчас нет понимания как это «нечто похожее» создать.
В настоящий момент все медленно и печально идет эволюционным путем — от создания модели живой клетки и внедрения в нее генетических алгоритмов и эволюционных механизмов, до построения более сложных «живых моделей» — вроде червей или насекомых. Вот кстати про насекомых — тут есть прорывы в создании «роевого интеллекта» — наподобие пчел и муравьев. Это, пожалуй, одно из самых бурно развивающихся направлений. Еще развиваются экспертные и когнитивные системы — вот как раз этот «японский студент», Watson от IBM или Wolfram Alfa, который пару лет назад рекламировали из каждого утюга. Кстати, представляю, в каком свете видятся эти системы незнакомым с данной темой людей — это же чистой воды магия. Но это развитие связано с коммерческой стороной — компании предлагают на рынке довольно любопытные технологии. Их бизнес-эффект непонятен, но что-то там есть. А вот роевой интеллект — это пока научная находка, но уже сейчас ясно, что у нее большое коммерческое будущее.

И, наконец, пара слов про эмоции. Тут есть нюанс. Запрограммировать поведение машины, чтобы она «обижалась», «жертвовала» и «психовала» — можно, это совершенно не проблема. Более того, это не только можно сделать, это уже сделали. Мы тут чуть выше обсуждали чат-ботов, в частности «Женю Густмана» — программу, моделирующую разговор с маленьким еврейским мальчиком. Но все-таки это эмуляция поведения, мимикрия, а вовсе не реальное проявление каких-то внутренних чувств и переживаний машины. То есть, тут вопрос не в построении алгоритма «когда можно швырнуть фигуры в лицо», а вопрос реализации сознания, которое имеет чувство собственного достоинства и осознает себя как хорошего игрока в шахматы, но при этом неожиданно начинает проигрывать какому-то жалкому человечешке, психует и швыряет фигуры в лицо. Тут и самосознание, и осознание «других», независимость, учет предыдущего опыта, эгоизм, и кто знает что еще... тут наверно нам лишь Alenka сможет рассказать, какие психологические механизмы должны сработать, чтобы в результате фигуры полетели нам в лицо.
И вот сделать машину, которая будет не внешне, а внутренне иметь всю эту кухню и на поверхность выносить лишь результат — вот это амбициозная задачка. С моей колокольни, мне это кажется реализуемым. Но если вы спросите когда — не знаю. Может лет через 100? Мы пока очень далеки от ее воплощения.
Even › Большое спасибо! Даже не представляете, насколько мне это интересно и даже необхоимо! Я тут, видите ли, затеял один роман... Ну, в смысле написать, а не закрутить. И потому мне все крайне интересно и даже, как бы, важно. Поэтому с удовольствием воспользуюсь и вашими знаниями и Аленкиными. И вот что еще очень интерсено: насколько клоны способны к проявлению адекватных чувств? Вот та самая Долли, помните? Она была обычной овцой или все-таки со странностями? Мне очень хочется услышать мнение Аленки самой о механизмах возникновения таких эмоций, как жажда власти или наживы, чувства мести или злорадства. Понимаете, мне интересно, предусмотрены ли эти эмоции в программе человека дефолтом или они могут развиваться только в силу поределенных обстоятельств? Можно ли вырастить человека-робота из обыкновенного ребенка, который 100% лишен скажем чувства долга, или чувства жалости? Да еще так, чтобы и в дальнейшем их нельлзя было в нем разбудить, развить. Или это дожен быть клон, который заведомо, где-то в своем геноме лишен таких чувств? И еще: пожалуйста, если вы знаете, какие-нибудь публикации или книги по этому вопросу. Ведь самому лопатить — можно много времени потратить зря. А с рекомендацией оно как-то вернее. Спасибо, дорогой Even!
Elsh › Мне тоже приятно встретить интересующегося человека. И если мое описание кому-то поможет — прекрасно, рад помочь. По поводу книг... я, к сожалению, уже не слежу за публикациями, поэтому не в курсе что можно почитать достойного.
Из относительно свежего и научно-популярного, могу посоветовать книгу Джеффа Хокинса Об интеллекте. У него есть своя теория, про которую я ничего сказать не могу, но проблематику и причины того, почему мы топчемся на месте, в деле создания ИИ, там описано хорошо.
Even › Благодарю вас.
Elsh › Она была обычной овцой или все-таки со странностями?

Тут какое дело... клонирование, как один из способов получения нового отдельного организма, не связано с эмоциями, лишь косвенно связанными с этикой и вовсе не связанными с главным здесь для нас — сознанием.
Indian ›Я понимаю, что вы хотите сказать... И удалил целый абзац идиотизма, который написал. Но у меня вопрос, который может все-таки показаться идиотским. Ведь, как я понимаю, клонирование — это получение генетической копии. Насколько возможно клонирование инстинктов? Ведь Долли, как пишут в Википедии, могла выпрашивать корм. Это очень интересный для меня момент. Это умеют делать все животные, некоторые могут выпрашивать ласку — кошки, собаки — баранам это не свойственно, поэтому они могут выпрашивать только еду. Или, например, забота о потомстве. Жаль, что клонировали овцу. Можно было бы поэкспериментировать дрессуру на клоне. Способность к обучению, например. Очень важный для меня вопрос. Все равно, большое спасибо. Я много узнал.
Elsh › Помните мы с Алёнкой обсуждали? Тут и где-то ещё. Заложенное — вложенное — свобода.

1. Генная конструкция. Как инженерная, так и информационная, что важнее — такая форма «прежних жизней», в этом виде они вполне реальны. Двухкомпонентна: упорядоченное наследование + случайное сочетание.

2. Воспитание, формирование средой. Включая родителей (у нас тут принято первые годы формировать существо в таком забавном и милом социально-экономическом образовании как семья, ячейка общества), далее школу, войска, коллектив, пропаганду... всё где существо позволяет себя формировать. Сюда же огромная роль случая, хаоса случайных совпадений в потоке мира. Тот же дуализм: формирование осмысленное + чисто произвольное, которого много больше.

3. Пространство личных волевых актов. Самостоятельное формирование. Предпочтений, знаний, навыков и развития судьбы. Сюда же формирование культурой — мы сами берём из неё то что нам нужно. И снова тот же, но уже личный порядок + беспорядок.

И вот клонирование — не более чем к первому компоненту относится. А его роль конечно огромна (родившись котёнком, так никогда и не научишься профессионально играть в гольф, только так будешь мячик гонять, лапками, без клюшек), но всё же не преобладает среди прочего, особенно вот хаоса среды, что нас окружает, сопровождает всю жизнь, непрошено соавторствует нам в ней.
Even › Я бы наверно книгу про это написал, если бы мог. С другой стороны, лучше бы я такую прочитал.

Читал в 80-х книгу про искусственный интеллект. Переводную, как помню. Тогда у нас в СССР ещё старались издавать литературу для умных. Понял, что всё упирается в этой проблематике не в модную тогда информатику, в которую все кинулись, но в философию. Не в пополнение базы, но в феномен сознания. В собственное построение мира субъектом. Так и вышло, с тех пор собственно информатика эти проблемы не то чтоб даже решила, но вовсе переключилась на сплошь третьестепенные утилитарные задачи: как ловчее сделать сайт, БД, магазин, соцсеть, сообщество с лайками, трёхмерный движок для игрушек.

Тут мы наблюдаем, на этом примере, не то чтоб даже снижение планки в дисциплине — но больше, дегуманизацию человека. И это лишь наглядный пример, так во всём прочем произошло.
Indian › Пока мы сделаем искусственный интеллект, он «сделает» нас. sad
С трудом, но нашёл.

10 сентября '11
Индийские программисты написали чатового бота Cleverbot, которого индийские студенты не смогли отличить друг от друга.
...
Что до ботов в чатах, с которыми местный контингент чатов способен часами вести беседы, влюбляться в них, знакомиться, жениться и рожать детей — для этого не надо ехать в Индию, такие вещи успешно работали ещё десять лет назад.


Конкретно мой программист делал. Но он был умный, физик, на ЦЕРН работал. И зная это, я уже тогда смотрел на эти его забавы как на нечто крайне несерьёзное.
У нас не менее искусно поступают в университеты искусственные «интеллекты» в вузы.
Hare Rama › Так проблема-то не отличить одно от другого. А что нормальные живые вменяемые люди закончились. И среди преподавателей в том числе. И если ставить целью не принимать ходячих манекенов — ну что ж, придётся сразу лавочку закрывать. Вот так честно, но сурово. Но нет, общество цепляется за имитацию давно утраченных систем. Мы говорили про симулякр образования как составную часть симулякра культуры. Вот оно уже повсюду.
   


















Рыси — новое сообщество