Category: компьютеры

Category was added automatically. Read all entries about "компьютеры".

Тесла ли изобрёл "изобретения" Теслы 3

Оригинал взят у pro_vladimir в Тесла ли изобрёл "изобретения" Теслы 3
С завидной регулярность появляются посты про Николу Теслу. Мол, де, был великий гений. Непонятый злыми спонсорами. Обиделся на всех и не рассказал про секретную кнопку, что при нажатии электроэнергию даёт даром, много и неограниченно. Оставив после себя некоторое количество патентов и неоплаченный счета за электроэнергию.



Collapse )

Нулевая точка NT


Оригинал взят у belayvolhiza в Нулевая точка NT
Прошлого уже нет, будущее еще не пришло. Что же есть? Только та точка, где сходятся будущее с прошедшим. Казалось бы, точка — это ничто, а между тем только в этой точке вся жизнь наша.
Л.Н.Толстой

Понятие Нулевой точки относится к духовному и энергетическому началу каждого объекта во Вселенной. С нулевой точки все начинается, и в ней потом сворачивается после завершения очередного цикла существования. Вначале сворачивается Нулевая точка, после этого происходит выворот объекта, его переход на другой уровень. Это касается Вселенной, Галактики, каждой звезды и каждой планеты. Это касается также всех форм жизни во Вселенной.

Математически – это Нуль, только Нуль всеобъемлющий, вмещающий информацию сразу обо всем. Он хранит информацию обо всех воплощениях объекта, о способах его выхода в активное состояние, а также о способах сворачивания информации об этом объекте.

Особенности Нулевой точки зависят от уровня жизни, которую она вбирает. Во Вселенной, включая все ее подразделения, существуют целые сети взаимосвязанных между собою Нулевых точек различных видов и форм жизни.


Collapse )

Генератор аниме и манги, версия 0.1: пока рисует только персонажей, но ещё не вечер.

Оригинал взят у ailev в Генератор аниме и манги, версия 0.1: пока рисует только персонажей, но ещё не вечер.
Вот тут можно установить слайдеры (от "кошачьи уши" и "нижнее бельё" до "чёрный фон" и "Сузумия Харухи") по вкусу, а затем нажатием кнопочки сгенерировать себе иконку уникального аниме-персонажа: https://mattya.github.io/chainer-DCGAN/ (надеюсь, там сайт не упадёт -- все ведь сейчас туда кинутся!).

Вот такую , или такую . По положению всей сотни слайдеров они не сильно отличаются -- я там только поменял параметр "колдовская шляпа" и цвет волос и глаз на зелёный.

Это означает, что нейронная сетка не только разобралась с "морфологией японской визуальной сказки", но и может такие визуальные сказки генерить. Привет Проппу, в том числе его ненаписанным работам по визуальному нарративу. Привет также всем преподавателям художественного слова, краски и пляски. Привет и всем ученикам этих преподавателей.

Итак, генератор персонажа и фона к нему работает. Что дальше?

На следующем этапе нужно будет для вашей манги написать кратенький сюжет и задать число страниц. Можно сразу делать в цвете, всё одно не тушью рисунок. Это ведь просто обратная задача написания рассказа по видео, а такая задача уже потихоньку решается: Expressing an Image Stream with a Sequence of Natural Sentences, http://gitxiv.com/posts/BckBiSmntPd2aQ6o4/expressing-an-image-stream-with-a-sequence-of-natural. Там взяли картинки из блогов, натренировали на них сетку, а потом попросили сетку писать текст по произвольно подобранным картинкам.


Можно делать и сразу аниме, почему бы и видео не сгенерировать?!

Юмор там тоже будет "слайдером", визуальный юмор ведь отлично выучивается -- см., например, из свеженького We Are Humor Beings: Understanding and Predicting Visual Humor, http://arxiv.org/abs/1512.04407

Конечно, на литературную премию это не потянет ещё лет пять, так и я дома на пианинке когда играю -- явно не Рихтер. Технологиям этим всего пара-тройка месяцев, совершенствоваться-учиться эти технологии будут IMHO со скоростью человека (это у меня такая странная догадка, из общих соображений). То есть, если сегодня эти каля-маля и тексты как у семилетнего ребёнка, то в следующем году это будет как у восьмилетки, а через пять лет -- как у отрока в 12 лет. Через десять лет это будет творчество 17-летнего, причём такого, который усидчиво рисовал (писал рассказы, плясал и т.д.) с пяти лет. Поконкурируйте с таким!

Это всё цветочки пока. Например, автоматически раскрасить старый фильм (подглядев цвета предметов и одежды в окружающем мире, https://youtu.be/_MJU8VK2PI4):

Это вот -- http://tinyclouds.org/colorize/

Я боюсь, что большинство людей сегодня не понимают некоторых простых вещей об этих новых технологиях:

1. Чуйку человеческую моделировать оказалось легко, если не требовать дальше согласования выводов этой чуйки с законами физики, химии, экономики и т.д.. То есть гуманитария получить из нейронной сетки -- это раз плюнуть. С логикой и научной картиной мира, добавленной к "гуманитарщине" пока сложности, это в полной мере будет чуть попозже, через десяток лет. Так что инженерия, химия и физика будут автоматизироваться медленнее, чем рисование картинок или подбор правильных шрифтов.

2. Машинное обучение оказалось не слишком капиталоёмким. Никаких миллиардов долларов на закупку оборудования не нужно, хотя суперкомпьютеры бы не помешали. Но и $1000 на GPU позволяет получать результаты. Алгоритмы всё более и более доступны (например, библиотека, на которой сделан генератор персонажей, свободно лежит тут: http://chainer.org/). Хотя профи в этой области уже дорогие, а новых людей учить-кормить нужно некоторое время и это тоже дорого. Но не дороже, чем в каких-нибудь блокчейнах. При этом приток новых кадров огромный, может даже побольше, чем в тех же блокчейнах. Я даже не могу себе представить, сколько любителей аниме и манги захотят освоить технологии машинного обучения после того, как увидят демонстрашку генерации персонажей и захотят "просто повторить", а затем "чуть-чуть улучшить".

3. Полученный вечером результат утром становится доступным через сеть всему миру, а вечером все, кому надо, его уже нагуглят. Структура хобби и структура занятости в сфере "гуманитарщиков" будет меняться быстрее, чем можно ожидать по темпам изменений последних пяти лет. Ах, и ещё нужно отметить, что контроль качества работы будет сильно "объективизирован" -- это ж элементарно выучить, что разные целевые аудитории будут лайкать. Качество компьютерного state-of-the-art будет довольно быстро расти, а человеческого остаётся более-менее постоянным. Можно будет строить графики исчезновения потребности во всяких "оформителях" и "криэйторах" -- оставаться-то на рынке будут только такие из них, у которых уровень профессионализма которых будет ниже потихоньку растущего звёздного, но выше быстро растущего компьютерного. Всё будет очень быстро, много быстрее, чем чем приходил интернет и мобильная телефония.

4. Потихоньку будет исчезать даже понятие "целевой аудитории", останутся отдельные люди -- компьютерам ведь не нужно будет целиться в "среднюю температуру по больнице" целевой аудитории. Точно так же, как вы получите сегодня своего уникального аниме-персонажа, сгенерированного по первой ссылке, точно так же гуманитарная продукция будет генерироваться и отгружаться целевому вам любимому (или целевой вам любимой. Компьютер-гуманитарщик обязательно разберётся и в различиях пола-гендера, и в предпочтениях по цветовой гамме и даже сколько процентов слов заменять на их матерные эквиваленты, чтобы вам понравилось). Всё, что вы пишете, будет изучаться (попробуйте, кстати, свеженький сервис от IBM -- психологические оценки ваших текстов: https://watson-pi-demo.mybluemix.net/ -- пока тексты должны быть только на английском или испанском, но лиха беда начало! Зато в текстах вычислят и характеристики Personality, и Consumer needs, и Values. А вот тут твиты использовали, чтобы узнать реакцию зрителей на новый эпиздод "Звёздных войн". Реакция оказалась в целом положительная -- http://habrahabr.ru/company/dca/blog/274027/, но нам-то нужны индивидуальные реакции! И они там вполне автоматически вычисляются). А всё изученное будет использовано, чтобы угодить лично вам, ибо компьютерная "гуманитарщина" будет стоить копейки -- хоть художественная проза, хоть философские эссе, хоть аниме вкупе с мангой, хоть голые женщины или мужчины (самые разные параметры которых даже в порнофильмах вам аккуратненько подстроят под ваш вкус -- включая эмоции. Вот, эмоции режиссёры уже могут накладывать после съемок: https://www.disneyresearch.com/publication/facedirector/. Дальше эти эмоции будут накладывать не режиссёры, а сами компьютеры -- да ещё и в реальном времени, отслеживая вашу реакцию в ходе просмотра и подстраиваясь под ваш вкус).

Об сопоставление вычислительной мощности мозга и современных нейронных сеток

Оригинал взят у ailev в Об сопоставление вычислительной мощности мозга и современных нейронных сеток
Тусовки модельеров мозга, суперкомпьютерщиков разного сорта, глубоких обучальщиков (программистов, математиков, артигогов -- http://ailev.livejournal.com/1011621.html) бурно обсуждают разные сравнения вычислительной мощности мозга и современного компьютера. Наброс на вентилятор в этой волне обсуждений был тут: https://timdettmers.wordpress.com/2015/07/27/brain-vs-deep-learning-singularity/ (с выводом, что компьютерам до мозга ещё развиваться и развиваться), асимметричный ответ тут https://www.reddit.com/r/MachineLearning/comments/3eriyg/the_brain_vs_deep_learning_part_i_computational/, а дальше пошли клочки по закоулочкам: начали вытаскивать и старинные работы типа http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3767911/ и экономические оценки типа http://aiimpacts.org/costs-of-human-level-hardware/ (в этом материале см. внизу страницы related posts, и там много-много ссылок на другие работы).

Мои две копейки на останов вентилятора:

1. Сравнение никому не нужно, важно это только с точки зрения пиара -- никаких выводов ни про сингулярность, ни про глупость компьютеров, ни про умность человека из этого сравнения сделать нельзя.

2. В нейронных сетках их целевая работа быстра, эффективна и требует очень мало памяти. Проблема не в работе, проблема в научении. Скажем, человека нужно учить 15 лет в школе и высшей школе. Зато после этого он легко решит какую-нибудь математическую задачку за день. Оценивать нужно не этот день, оценивать нужно те 15 лет, в них вся фишка. 365*15=5475, легко нашли дырку в три с полтиной порядка в оценках производительности. С нейронными сетками то же самое: при нанесении пользы они в тысячу раз быстрей, чем при обучении. FLOPS при этом не волнуют: не все архитектуры позволяют хорошо задействовать эти FLOPS -- архитектуры графических GPU тут не слишком хороши, а мозг тоже никто не проверял, насколько он в этом плане хорош.

3. Как говорил кот Матроскин, средства у нас есть, у нас ума не хватает -- важно, как распорядиться имеющимися FLOPS. То, что в изменениях алгоритмов можно легко найти ещё три порядка, это даже не вопрос. То, что эти самые FLOPS можно аппаратно развернуть в поддержку правильных алгоритмов, это тоже не вопрос. Более того, FLOPS бывают разные -- в сетках необязательна двойная точность, а какой именно минимальной должна быть одинарная точность мы ещё не знаем, и аппаратуру под это ещё толком не подстраивали, идут только первые эксперименты. Более того, эксперименты с аппаратурой "сделаем как в мозге" -- это неправильные эксперименты, это эксперименты с махолётами вместо экспериментов с самолётами или вертолётами.

4. Так что сравнивают бегемотов с апельсинами, удивляются такому разнообразию оценок в наш век точных измерений и научных расчётов. Пустое это. С другой стороны, есть нюх -- этот нюх показывает, что текущей аппаратной базы уже начинает хватать для решения ну очень крутых задач. Если суперкомпьютеры грузануть нейронной сеткой, а не моделированием атомных взрывов, их можно ой сколько чему интересному научить уже сегодня -- если сообразить, чему учить и как учить. Впрочем, Гугль и Фейсбук делают примерно это, только на кластерах с GPU, тоже интересно получается.

5. Скорость, конечно, является на сегодня сдерживающим фактором: лимитирует тут скорость обучения, оно сегодня запредельно медленное, а массово-параллельные алгоритмы только-только начинают предлагаться.

6. Но и скорость тут не главное: из одной и той же мокрой нейронной сетки (ага, wetware) можно научить Нобелевского лауреата, а можно (если учить будут звери) Маугли -- при этом даже не получится научить говорить, несмотря на всю предрасположенность человечьего мозга к речи. Вот это и есть лимитирующий фактор: нет наборов учебных данных, нет постановки учебных задач, нет понимания, как учить сетку, нет понимания, как комплексировать разное выученное, чтобы добиться универсализма. Тезис Lenat, что при решении большинства интересных задач задействуется неожиданно большое количество знаний common sence, и что по пути Eurisko (даже если ей выдать современный суперкомпьютер) быстро не продвинешься -- этот тезис остаётся верен до сих пор.

7. Хотя я всё думаю, что было бы, если бы взять Eurisko (1982-83) и реализовать её на GTX Titan X -- мне кажется, могло получиться примерно то же, что с нейронными сетками, когда им дали достаточно аппаратных ресурсов: результаты могли бы быть сногсшибающими. Можно было бы сделать "исторический" хакатон -- и тряхнуть той идеологической стариной на новый технологический лад. Learning by discovery может оказаться не такой плохой идеей на современных вычислительных ресурсах. Скорость и размер (памяти) таки имеют значение. Хотя NP-полные задачи и требуют себе экспоненциального роста вычислительных ресурсов, но именно такой рост нам и обеспечивал закон Мура некоторое время. И слишком высоко на экспоненте висящие в 1983 году плоды могут оказаться низко висящими в 2015 (а высоко висящими -- плоды, которые в 1983 году вообще не были видны). За время пути собачка смогла подрасти.

8. Моя оценка (и я её обсудил с разными людьми) -- что мощности сегодняшних 2000 GTX Titan X (это примерно $2млн., не бог весть какой суперкомпьютер) при понимании как ими пользоваться должно хватить для создания реально неглупого компьютерного собеседника (врача, юриста -- это "например"), причём за год. Не хватает сейчас главного: понимания, как такой вычислительной мощностью правильно пользоваться, как модуляризовать результирующую систему (например, как сочетать "жёсткую логику" и "интуицию и аналогии" -- в реальной работе они обе ведь участвуют), как поставить задачу на обучение и где брать для него данные, как тестировать результат. Вот это понимание и может легко растянуться до момента получения приемлемых результатов и на пять лет, и на десять. Плюс за эти пять или десять лет легко может измениться само понятие "приемлемых результатов".

9. Сегодняшняя ситуация такова, что довольно быстро выстраивается новый технологический стек, ряд новых технологических платформ. Нижние уровни (FPGA, GPU от NVIDIA, что-то от AMD, многоядерные процессоры от INTEL), языки (python, lua, c++, новички типа Julia -- языков тут уже хватает, как и везде), спецбиблиотеки (Theano, Caffe, Torch -- их десятки уже, если не сотни) -- и специфика предметной области сидит ровно тут: все настройки и оптимизации из прикладных задач постепенно уползут в эти библиотеки-фреймворки, которые станут скоро толстыми "платформами". Это важно, ибо если мы тут ускорим дело всего на порядок, то стартап чему-то научит свою сетку не за десять лет, а за год за ту же сумму денег. Ну, или за тот же год, но возьмёт на аппаратуру вдесятеро больше денег (если будет знать, как распараллелить это обучение, что тоже не факт).

10. Приложения -- и вот тут, где уже ближе всего к деньгам, тут у нас пока затык. Распознавание речи и аннотация фотографий это хорошо, но именно в области приложений должен произойти прорыв. С переводом с языка на язык (аннотация фотографий, кстати, частный случай перевода -- перевод с видеоязыка на какой-то естественный язык, всё то же самое) уже справляются не хуже, а даже лучше чем при традиционных иерархических парсерах -- https://drive.google.com/file/d/0B16RwCMQqrtdNUptOGtDeDhxZ0E/view, на бирже уже вовсю торгуют с техническим анализом (и пытаются прицепить фундаментальный анализ, хотя бы по открытым источникам), автомобили без водителя -- это про то же самое. Приложений уже тьма, но главные приложения наверняка не придумали ещё. Чемоданы с колёсиками придумали только в 80-х, до этого были только носильщики с тележками. И сложность ещё в том, что мало придумать приложение. Потом это приложение нужно будет научить -- а как его учить? Где брать данные для обучения? Вот это самое сложное. Следовательно, нужно будет как-то предобучать на том, где много данных, а потом доучивать на буквально единичных примерах -- и исправлять потом ошибки как у человека, который тоже на единичных примерах учится, и тоже попервОй учится плохо.

Итого:
-- плевать, сколько мощности у мозга и какой КПД полёта у птички. Нам мощности аппаратуры и сегодняшних алгоритмов уже хватает, чтобы низенько-низенько, но полететь.
-- приложения, как всегда в софте, важнее всего. Способ получения приложений -- не столько кодирование, сколько не-пойми-что на сегодня, артигогика (http://ailev.livejournal.com/1011621.html). Артигоги или как они иногда себя называют, коннекционисты, это то, что становится выше по технологическому стеку, чем программисты. Программисты становятся продолжением аппаратуры, они кодируют общие алгоритмы вместе с математиками, а ближе к пользователям будут уже -- не они, их ручной труд, их ручное кодирование там уже не нужно.
-- технологический стек, где сидят программисты и математики, важен: он может дать (возвращаясь к теме поста) тот порядок или даже пару порядков (а иногда и три порядка) запаса вычислительной мощности, которые позволят обучать приложение на тот самый порядок ли даже три порядка быстрее или качественнее (на выбор), и тем самым побеждать конкурентов. Но главный вывод: технологический стек уже достаточно развит (например, сегодняшняя самая большая наученная сетка -- 160млрд параметров, http://arxiv.org/abs/1506.02338), чтобы (повторюсь) низенько-низенько, но полететь.

А учёные, которые изучают мозг, моделируют мозг, сравнивают мозг с компьютерными чипами -- они учёные, пусть статьи пишут. Сравнивают 160млрд. параметров из самой большой наученной людьми нейросетки с 86млрд.нейронов мозга (http://compulenta.computerra.ru/archive/neuroscience/664455/). Это поможет, например, медикам. Примерно так же, как изучение аэродинамики птичек помогает орнитологам. А авиационщикам помогает изучение аэродинамики не птичек, а их самолётов. Так и создателям нейроприложений поможет не изучение устройства мозга и восхищение его вычислительными возможностями, а изобретение каких-то не связанных с мозгом алгоритмов и улучшение аппаратуры и языков программирования. Бионика хороша для отдельных примеров, она даёт нужную экзотику для научпопа. Бионика для массовой инженерии в больших дозах вредна, она отвлекает.

IT-NEWS: СМИ: Китай запретил экспорт высокотехнологичных беспилотников и суперкомпьютеров



По данным China Daily, ограничение на экспорт этих видов продукции связано с защитой передовых технологий. Как заявил изданию вице-президент крупнейшего в мире производителя беспилотников, китайской компании DJI Шао Цзяньхо, запрет на экспорт высокотехнологичных БПЛА прежде всего нацелен на некоммерческие аппараты. "Это решение стало сюрпризом для отрасли, но оно оправдано с точки зрения национальной безопасности и здорового развития сектора", - сказал он.
К тому же, указывает China Daily, запрет позволит предотвратить использование китайских беспилотников в военных целях. Как отмечает издание, 15 июля ВВС Пакистана заявили об уничтожении военного БПЛА Индии на "линии контроля" между двумя странами в Кашмире, которая является не признанной юридически демаркационной линией между двумя южноазиатскими государствами. Зарубежные СМИ тогда сообщили, что сбитый летательный аппарат был китайского производства и использовался в разведывательных целях. Индийская сторона эту информацию опровергла, заявив, что "никакого крушения беспилотника индийской армии не было".


http://trassa-60.blogspot.com/2015/08/blog-post_22.html

Meta анонсировала релиз «голографического» компьютера Meta Pro | ХОЧУ ВСЕ ЗНАТЬ - Момент истины, муд

198115

Предыдущим гаджетом Meta, который был доступен для предзаказа в течение нескольких последних месяцев, были очки META.01 — ранний вариант устройства для разработчиков, активно привлекаемых в новую инфраструктуру «голографического» программного обеспечения. Это были только очки, которые необходимо подключать к компьютеру для подачи данных. Теперь они практически готовы к отправке заказчикам, и этот момент обозначил время перехода на следующий этап: MetaPro включает электронные очки и небольшой портативный компьютер с вычислительной мощностью, которая критически превосходит возможности любых анонсированных смарточков и приблизительно соответствует младшим MacBook Air середины 2013 года.

http://hvz.dreamwaver.org/meta-announced-the-release-of-holographic-computer-meta-pro/