2)第86章 视觉新范式_重生之AI教父
字体:      护眼 关灯
上一章 目录 下一章
  ,生成式网络的论文已经放出,而检测的网络随着白度的发布会,大家也已经了解它的威力。

  至于分割网络,则是这两天随着dreamnet的论文一起放出的u-net工作。至此,可以说视觉类几大任务的基础范式已经被孟繁岐奠基。

  今后不论是识别分类,分割检测,还是迁移生成,都很难绕得开这些轻便又好用的办法了。

  “可以看到,这种思想席卷视觉领域之后,使得目前主要的研究方向都有了颠覆性的突破。”

  孟繁岐将这几篇论文的主要试验结论摆在了幻灯片的第二页,就是要先以结果震撼众人。

  “显然,这些算法在诸多领域都与第二名拉开了巨大的差距,而相当一部分的功劳应当属于残差思想对网络深度的革命。”

  “在10年11年,我们仍在使用人工设计的sift,hog还有svm,12年,阿里克斯的八层alexnet取得了巨大的突破。”

  “而今年,残差思想引发的深度革命,使得训练150+层的神经网络成为可能。”

  “深度神经网络是很多任务场景,尤其是视觉任务场景的基础引擎和骨干,这也是为什么它能够迅速影响几个主流的任务。”

  “从结构上看,dreamnet并没有什么特别的,比起之前每一层都单独设计的网络,我其实故意希望它变得简单,重复。”

  孟繁岐身后的幻灯片展示了一个极其细长的图案,这就是一百多层深的dreamnet结构图。

  放大展示它的基本设计,众人发现,它的单层设计非常简洁朴素,只采用了最常规的算子操作。

  长长的结构图滚动了起来,观众们都发现,原来每一层并没有任何区别,只是单纯在重复。

  由于一百多层的滚动需要太久,在这个严肃的场合显得有些喜感,场内发出了一阵阵笑声。

  “那么这里就引出了一个问题,那就是是否单纯地把网络做大作深,就总是可以取得更好的结果呢?”

  孟繁岐的这个问题,直到2023年也没有一个理论上的答复,但很显然,巨大的模型还在持续地创造一个个奇迹。

  不管是绘画,对话,还是图像操作,都还远没有到达极限。

  “我非常希望自己能够清楚地从理论上告诉大家这个答案,但由于能力有限,我也只能给出自己的猜测,那就是yes。”

  “我相信,只要更多更好的gpu,更多更好的数据,以及更大大模型和更好的优化办法,我们就可以持续地创造奇迹。”

  “而之前的网络在深度上遇到的阻碍,我认为并不是网络的能力问题,而是我们没有找到合适的办法去优化好它。”

  让网络多重复几次,这是很多人都试过的事情,很显然,得到的结果是比原本要差的。

  这在传统方法中,不是什么奇怪的现象,很多人都将这个现象解释为维度灾难或者过拟合,没有进行足够深度的探索。

  “稍加思索,这显然是一个反直觉的现象,对于更深的网络,我们完全可以将小版本网络的所有参数复制进来,而多出来的部分只要什么事情都不做,这个模型就至少不会更差。”

  “但事实上,却并非如此,我相信很多人都观察到了这样的普遍现象,那就是更深的模型反而变差了不少。”

  请收藏:https://m.biga9.com

(温馨提示:请关闭畅读或阅读模式,否则内容无法正常显示)

上一章 目录 下一章