新浪科技讯 北京时间6月20日早间消息,近期发表的一篇学术论文或许为机器学习未来的发展制定了蓝图。这篇论文题为“一种可以进行各种学习的模型”,为可处理多任务的单一机器学习模型提供了模板。
谷歌研究员将其称作“MultiModel”(多任务模型),并训练该模型完成一系列任务,包括翻译、语言分析、语音识别、图像识别和对象探测等。尽管结果相对于当前方法并没有质的飞跃,但这表明,用多种任务去训练机器学习系统将提升其整体性能。
例如,如果用可以胜任的所有任务来进行训练,那么相对于用单一任务进行训练,MultiModel在机器翻译、语音和分析任务方面的准确性会更高。
谷歌的论文为未来机器学习系统的开发提供了模板。这种系统可以得到更广泛的应用,或许也会更准确。这将与当前的狭义解决方案不同。更重要的是,这些技术(及其衍生技术)有助于减少机器学习算法所需的训练数据量。
该团队的研究结果表明,在用可以胜任的所有任务来进行训练时,准确性会随着训练数据的减少而提高。这点很重要,因为某些领域很难积累起足够多的训练数据。
然而,谷歌并没有宣称已找到一种可以学会所有任务的“主算法”。正如名称所暗示的,MultiModel网络包含为解决不同挑战而订制的系统,以及协助直接向这些专家算法提供输入的系统。谷歌采取的方法将有助于未来开发类似的系统,以解决不同领域的问题。
需要指出,这方面仍有许多测试需要去做。谷歌的研究结果尚未得到证实,目前也很难弄清,这项研究能否拓展至其他领域。作为TensorFlow开源项目的一部分,谷歌大脑团队已经发布了MultiModel的代码,而其他人可以尝试这个模型。