当前位置:首页 >> 养护

前谷歌神经系统科学家称梯度下降为机器学习中最优雅idea,LeCun大赞

来源:养护   2025年03月19日 12:16

吧。

与此同时也有留言辩护道,就拿反向广泛传播机制来真是,我们的神经元却是都不存有这个样子,怎么能真是人工智能和遗传学很像呢?

“我实在局部增高还是一个高等数学可能,和微生物所谓;并且我还得真是一句,高等数学之美远超微生物和遗传学之美,不够别提局部增高比微生物聪明了几个数量级呢。”有人进一步回怼。

反对声是七嘴八舌……

小哥恰巧可能激化,楼越堆越高,按耐不住,单单来说明了。

他称,自己这个最简单可能不近乎,可能也存有表述不准确的原因。但似乎,这些结论都不涉及说明机器学习的遗传学客观性。除此之外,真的他的直观思绪,大家这样一来接受和辩护就好。

好吧,这就是一个封闭可能,经不经得起说明了还很难真是。

只得真是他明确提单单来的局部研读最优美可能现阶段点赞次数最多的一个作答。

那么,我们还是回到可能本身,就让到除了局部增高,还有什么人工智能方依此论被大家奉为“至美”吧。

还有哪些idea很优美?

一位刚刚进入斯坦福大学读博士的学生忽视是“高斯全过程“(Gaussian Process, GP),对他来真是,这是构建基本概念全过程中都最精粹的“精髓”。

一位受聘于Zoom的AI更有说明,深度研读的框架和控制系统中都有太多优美的样子了:

往低了真是,GPU加快转换不算一个;

往高了真是,可射影脚本语言/Pytorch的自动求导(autograd)/反向广泛传播都可以不算这个区域内;

来自Yoshua Bengio的MILA实验室的一位研究专家则说明,当然是人工智能中都的扩展定律(scaling laws)了,“那种最简单到惊丢弃人下巴的美!”

一位握有博士学位的留言:“我也实在作答太多了,硬要我真是,我选激活给定和ConNet架构。因为它们归根结底和特征值和微积分很像。”

还有人的作答是:断定广泛传播不算依此(belief propagation)、流形研读(manifold learning)、bottleneckz自动类比、数学模型中都的不变性和等变性编码等等。

当然,最简单又常用的Transformer也必须得有一票。

这里就不一一列举了。

不过,也有人忽视人工智能却是只求什么优不优美。

“却是在获取最终结果之后,你得经历各种报错和bug的严刑拷打。要我真是,我还是实在电磁学中都的诺特等式是最优美的样子。”

所以,这就是我们并不多谈到人工智能之美的原因吗?

也不止如此,有人就说明:

即使人工智能到了2022年,你也不能在没依此必需能超过一个有趣结果的可能下就这样一来“鼓捣”有价值的GPU,这样的话,谁还回事人工智能其实优不优美呢?

emmm,或许真相了……

不过总而言之,不少人都说明DeepMind研究专家明确提单单的这个可能极其好,大家的批评家也都很有意思,或许一读。

最后,你实在人工智能中都存有美的样子吗?

如果有,你pick哪一个呢?

参考资料页面:[1][2]_SROYng[3]

— 完 —

电动力学位 QbitAI · 新闻号合约

安必丁的联合用药
治疗早泄的方法
孩子消化不良吃什么好的快
吃什么可以缓解类风湿性关节炎
安必丁可以长期吃吗
反酸烧心能吃金奥康吗
乙流咳嗽用药
什么血糖仪家用比较好
什么血糖仪家用比较好
哪个厂家的血糖仪准确度高
友情链接