位于加州山景城的谷歌总部
谷歌研发了一种“能学习所有任务的多功能模型”,在AI领域取得巨大进步。
近日,谷歌低调发布了一份学术论文,在论文中描绘了机器学习的蓝图。谷歌研发新的机器学习系统,它被称为“能学习所有任务的多功能模型”,这一模型为以后的研究提供了一个模板,即如何创造一个能够很好地处理多个任务的机器学习模型。
正如谷歌研究人员所称的那样,“多功能模型”接受了各种各样的任务训练,包括翻译、语言解析、语音识别、图像识别和目标检测。虽然它的结果并没有显示出对现有方法的根本性改进,但至少表明,在不同的任务上训练机器学习系统有助于提高它的整体性能。
相比只是在单一运算机器上进行了训练,“多功能模型”在机器翻译、语音和语法分析方面的准确性都得到了提高。
谷歌的论文可以为未来机器学习系统的开发提供一个案例,这些系统可以更广泛地被应用,而且也可能它比目前市场上大部分的狭义解决方案都要准确。更重要的是,这些技术(或它们衍生的)可以帮助减少训练可行的机器学习算法所需的训练数据量。
该团队的研究结果表明,当“多功能模型”接受了它所能完成的所有任务时,它的准确性就会随着训练数据的减少而提高。这很重要,因为在某些领域很难积累足够多的训练数据。
然而,谷歌并没有宣称拥有一种可以同时学习所有任务的算法。正如它的名字所暗示的那样,“多功能模型”是为应对不同挑战而量身定制的系统,以及帮助直接输入这些专家算法的系统。这项研究的确表明,谷歌采取的方法可能对未来开发不同领域的同类型系统有所帮助。
同样值得注意的是,“多功能模型”还有大量的测试要做。谷歌的搜索结果还没有被证实,而且很难知道这项研究如何推广到其他领域。谷歌的大脑团队已经承诺开放“多功能模型”的源代码,让更多的人去尝试,但没有给出具体的开放。
对于“多功能模型”,谷歌也有一些明显的改进思路。谷歌团队指出,他们没有花很多时间优化系统的一些固定参数(在机器学习中被称为“超参数”),而未来调参优化将有助于提高准确性。