Мультипликаторы всё. Остальные на очереди.

May 03, 2017 15:43

Вот как выглядит нечеловечьих рук мультипликация (подробности -- http://theorangeduck.com/page/phase-functioned-neural-networks-character-control, статья -- http://theorangeduck.com/media/uploads/other_stuff/phasefunction.pdf):


Прыгает, бегает, карабкается, ходит боком, пятится назад -- поглядите на примеры в видео: https://youtu.be/Ul0Gilv5wvY

Ударными темпами создаётся новое поколение видеотехнологий, в которых нет места человеку:
-- что именно показывать, определять будет программа. Например, в индийской Culture Machine Media Pvt Ltd (https://culturemachines.com/, слоган "entertainment for the Internet generation") сделали Intelligence Machine: на базе ваших похождений по социальным сетям определяет, что вам может понравиться. Помним, что Intelligence это не только "интеллект", но и "разведка". Вас разведают будь здоров, никуда не денетесь.И таких внимательных к вам неживых аналитиков уже довольно много, они стремительно совершенствуются.
-- затем компьютер мог бы сочинить сценарий. Фильмы по сочинённым сценариям уже снимаются (https://arstechnica.com/the-multiverse/2016/06/an-ai-wrote-this-movie-and-its-strangely-moving/), осталось выбрать из множества сочинённых сценариев такой, который гарантированно вам понравится. Но аналитика на этот счёт уже есть, она получена той самой Intelligence Machine на предыдущем такте.
-- для дешёвого варианта дальше можно сразу по сценарию сделать видео -- его, например, может сочинить Video Machine от той же Culture Machine, у них там полный цикл: Intelligence Machine определяет, какое видео нужно делать, а Video Machine его делает.
-- мы возьмём кого-то знаменитого на роль актёра, технологии подчинить его выражение лица уже есть: https://twitter.com/genekogan/status/857922705412239362. А ещё мы подделаем его голос: https://lyrebird.ai/
-- и, наконец, мы заставим эту знаменитость натурально прыгать и бегать на пересечённой местности -- как раз новость этого поста (и уникальную чью-то походку тоже при этом скопируем -- gait recognition уже общее место в deep learning, а переход к порождению сегодня тривиален: всё, что можно распознать, GAN смогут синтезировать).

Ах, я забыл предупредить: этой знаменитостью можете быть и вы сами. Фильм с вами в главной роли, который гарантированно вам понравится и в котором будет аккуратно вмонтировано пять-шесть рекламных сообщений для вашего бессознательного. Или шесть-семь сообщений, или восемь-девять -- сколько наберут рекламодателей. Это ведь сейчас показывают рекламу сбоку от контента, "джинсу" только человек может делать. А когда "джинсу" сможет делать не человек, да ещё и индивидуально подгонять под потребителя, это ж какие времена настанут!

Одна надежда, что не только "мультипликаторы всё", но и "зрители всё" -- хотя это как предложить людям не пить и не курить. Биохимия алкоголя и мелькающих картинок очень похожа: сегодня вместо водки потребляют на ночь фейсбук или ютьюб. Так что весь этот мутный поток контента будет востребован. Телевизор-то смотрят, невзирая ни на что! И это новое компьютерное творчество будут смотреть.

Восхитительные времена настают. Я всё время вспоминаю про старика Хоттабыча, который дал футболистам 22 мяча на поле, чтобы им всем хватило: интеллект ведь будет дёшев, очень дёшев, вы от него никуда не денетесь, никуда не сбежите. Каждый футболист получит свой личный мячик, всем мячей хватит.

Самым дешёвым будет гуманитарный интеллект. Даже если предметом сочинения является правдоподобное движение какого-то персонажа по пересечённой местности, как пример из этого поста (компьютерные игры уже никогда не будут прежними!), правдоподобное изложение эпизодов военных действий (ольгинские тролли будут все неживыми уже в следующем году, и имя им будет -- легион!), правдоподобные заявления политиков (которые будут делать самые разные люди, только не сами политики).

Тем не менее, технологии этически нейтральны. И хотя лучшие режиссёры, художники, операторы, мультипликаторы и т.д. работают сегодня на рекламу, можно предположить и другое использование. Я не говорю даже об искусстве (вопрос тут спорный, как и с рекламой). Но может быть второе дыхание в edutainment -- лекцию на на той же Coursera будет читать вам выбранный персонаж, а хоть и вы себе сами, а хоть и ваша любимая девушка. Или так может быть представлена какая-то информация по интересному инженерному проекту. Весь вопрос, сколько человек предпочтут Coursera или инженерный проект какому-нибудь "живому развлекательному паблику, лично для вас". У меня тут пессимистический прогноз.

А пока исследования продолжаются:
-- нежить изобретает "нейроязыки" для общения между собой, а их переводят на человечий: https://arxiv.org/abs/1704.06960
-- утилитаристам люди верят меньше, чем деонтикам, а роботы представляются утилитаристами -- вот к роботам и недоверие (как будто трудно сделать робота-деонтика!): https://www.theguardian.com/science/head-quarters/2017/apr/24/why-are-we-reluctant-to-trust-robots.
-- одна нейронная сетка теперь учится переводить, а другая устраивает ей тест Тьюринга, т.е. определяет: похож ли перевод на человечий? Первая сетка стремится вторую надурить, т.е. притворяется человеком всё лучше и лучше. А вторая всё лучше и лучше определяет, что это не человек. Качество перевода при таком подходе растёт: https://arxiv.org/abs/1704.06933 (да, это GAN -- теперь и в машинном переводе).
-- Amazon выпускает гаджет, полностью эквивалентный "свет мой, зеркальце, скажи" за $200 -- электронное зеркальце не только делает красивые селфи, управляясь голосом, но ещё и даёт советы по стилю, т.е. проверит, как вы одеты, и не выпустит из дома, если вы не стильны: https://www.amazon.com/Echo-Hands-Free-Camera-Style-Assistant/dp/B0186JAEWK.
-- Kuka теперь не германская робототехническая компания, а китайская: её купил китайский производитель стиральных машин Midea, получив 94.55 percent voting stake in Kuka за 4.5млрд.евро -- http://www.reuters.com/article/us-kuka-m-a-mideamidea-group-idUSKBN14J0SP
-- квантовый компьютер ожидают уже в этом году (этим озаботился Гугль): https://www.technologyreview.com/s/604242/googles-new-chip-is-a-stepping-stone-to-quantum-computing-supremacy/amp/
-- NVIDIA окончательно перелицевалась с компьютерной графики на искусственный интеллект и теперь массово скупает AI-стартапы, что твой Гугль: вот ещё шесть штук профинансированы фондом GPU Ventures, из США, Японии, Израиля, а на GTC будет объявлено и о других приобретениях в этой области -- https://blogs.nvidia.com/blog/2017/04/26/nvidia-six-startups-gpu-ventures/. Никаких компьютерных игр, никакой компьютерной графики: автомобили без водителя, предсказания погоды, медицинская диагностика, розничная торговля, голосовые приложения.
-- Waymo (это теперь так называется фирма, занимающаяся гуглемобилем) запускает тест на 500 гуглемобилей в Фениксе -- https://waymo.com/apply/. Можно заказать гуглемобиль, и он вас покатает бесплатно. "А деньги придут потом", замечают в Гугле -- https://www.bloomberg.com/news/articles/2017-04-25/alphabet-s-self-driving-cars-to-get-their-first-real-riders

И, конечно, всё плотней и плотней задаются вопросом -- а что, собственно, представляет из себя человеческая деятельность, которая будет автоматизирована (ну, или кардинально изменена -- автоматизировать ведь часто не означает делать машиной то, что делает человек. Если уж делает машина, то она может делать что-то совсем другое. Автоматизировать работу секретаря-машинистки не стали, а секретарей машинсток больше нет. И так будет со многими). Вот только один из примеров -- задаются вопросом о медицине без докторов: https://lukeoakdenrayner.wordpress.com/2017/04/24/the-end-of-human-doctors-understanding-medicine/

А вот очередное чтиво для футурологов, миф о сверхчеловеческом AI (там главный вывод о том, что этот AI будет не сверхчеловеческим, а "мимочеловеческим", сам вопрос задаётся неправильно про "сверхчеловечность") -- https://backchannel.com/the-myth-of-a-superhuman-ai-59282b686c62

И это всё новости одной недели. То ли ещё будет, ведь с AI всё только-только начинается -- после многих лет недоинвестирования. Упомянутые в посте технологии ещё пока не в каждом доме, и тут нужно подождать года три-четыре. Но через эти три-четыре года мало никому не покажется.

UPDATE: дискуссия (видна не всем) -- https://www.facebook.com/eg.kabakov/posts/10207374319794663
Previous post Next post
Up