(报告出品方:赛迪)
人工智能(AI)是一门致力于研究制造各种智能机器的综合性学科。我们相信,在日益数字化和数据驱动的当下,AI将不断推动技术进步。届时,我们生活的方方面面,从文化到消费产品,都与AI密不可分。本文旨在围绕全球AI在研究进展、人才形势、产业动态、政府政策四个方面的发展情况进行探讨分析。
一、研究进展
(一)AI学习框架、语言和模型
1、AI的开放性并没有我们预想的那么高
大多AI技术都封闭源代码,只有15%的AI论文公布了其源代码。自年中以来,这种情况几乎没有得到改善。一般来讲,与学术机构相比,行业机构更不倾向于发布其代码。OpenAI和DeepMind1这两大著名机构就没有发布其所有代码。对于大型科技公司而言,它们的代码通常与不能对外发布的专利性内容交织在一起。
2、在深度学习框架上,PyTorch逐渐受到欢迎
在AI相关研究论文中,对Facebook的机器学习框架PyTorch的使用迅速超过谷歌的机器学习框架TensorFlow。PyTorch提供更大的灵活性和动态计算图,使实验变得更加容易。在这些论文中有20-35%提到了他们使用的框架,其中有75%使用了PyTorch,而非TensorFIow。年,在位作者中,多数人发表的论文都是基于TensorFLow框架,但现在有55%转向了PyTorch。在代码托管平台GitHub上发布的论文中,PyTorch也比TensorFlow受欢迎。其中,47%的论文实现基于PyTorch,而18%基于TensorFIow。
3、自然语言处理全新评估基准SuperGLUE正式发布
GLUE是在一系列任务中评估自然语言处理系统的基准,这些任务涉及逻辑、常识理解和词汇语义。就在12个月前,在GLUE基准测试中,人类被AI超越1分。年8月,自然语言处理(NLP)全新评估基准SuperGLUE正式发布。基于一年前推出的GLUE基准,SuperGLUE包含了一系列更难理解的语言挑战、改进的资源和公开的排行榜。
4、模型参数和模型性能调整花费巨大
现阶段,哪怕略微提升一下模型性能,我们都需要付出高昂的计算、经济和环境成本。如果没有新的重大突破,将ImageNet错误率从11.5%降至1%将需要超过千亿美元的费用。许多从业者认为想要在机器学习的成熟领域进行突破变得十分困难。要实现相同的性能,较大模型比较小模型需要的数据更少,这会对训练数据样本生成成本昂贵的领域产生影响,而对使用基于监督学习的模型进入新领域的大公司来说是优势。
(二)生物学相关AI技术
生物学正经历其“AI时刻”。自年以来,涉及生物学AI方法(如深度学习、自然语言处理、计算机视觉、强化学习)的出版物同比增长超过50%。年以来发表的论文占年以来总产出的25%,年,有超过篇涉及生物学的AI论文发表。
(三)其他相关AI技术:计算机视觉任务获得更多
转载请注明:http://www.0431gb208.com/sjsbszl/4744.html