http://arxiv.org/pdf/1410.5401v1.pdf
We extend the capabilities of neural networks by coupling them to external memory re-
sources, which they can interact with by attentional processes. The combined system is
analogous to a Turing Machine or Von Neumann architecture but is differentiable end-to-
end, allowing it to be efficiently trained with gradient descent. Preliminary results demon-
strate that Neural Turing Machines can infer simple algorithms such as copying, sorting,
and associative recall from input and output examples.
Замечательно, полностью дифференцируемый вычислитель, программу для которого можно изменять градиентным спуском по ошибке!
Вычислитель малые изменения в представлении программы которого приводят к малым изменениям в алгоритме работы!
Это - будущее. А наши гигабайты юниксовой деградации готовой сломаться в любой момент от одиночной перестановки бита, которую упорно пишут и чинят миллионы программистов и которая всё равно ломается - это артефакт XX века.
вот своим комментом ты газонул знатно канеш, но за бумагу спасибо
@ulidtko неплоохо. Ох, чёрт побери, неплохо.
@engineer от битфлипа в рандомном месте образа? вангую вероятность 1:over 9000
моё чувство когда форсишь сабжевую бумагу повсюду и даже печатаешь её для тян, но официально лайкаешь спустя почти месяц