首页 头条 正文

OpenAI CEO Altman:大语言模型不是“越大越好”

北京时间4月13日,openAI联合创始人及首席执行官在麻省理工学院接受了相关的采访,他表示OpenAI大语言模型并不是所谓的越大越好,同时他认为自己的团队正在为了大小而逐渐接近人工智能的极限,目前他们的公司已经走到了这个时代的尽头,将会用其他的方式把这个模型做的更加的好,他也认为大小并非是衡量一个模型质量好坏的正确方式。

北京时间4月13日,open AI联合创始人及首席执行官在麻省理工学院接受了相关的采访,他表示Open AI大语言模型并不是所谓的越大越好,同时他认为自己的团队正在为了大小而逐渐接近人工智能的极限,目前他们的公司已经走到了这个时代的尽头,将会用其他的方式把这个模型做的更加的好,他也认为大小并非是衡量一个模型质量好坏的正确方式。

网络图片(侵删)

未来的91288830模型参数应该向41297839更小的23907898方向24228180进行发展,或者2994879以多个小模型协作的24059112方式进行工作,也43393214就意味着13470936未来的67211427AI人工智能技术是43298472应该将重点放在提高模型的70708076能力上,而不是3913927取决于42388165模型的27193308大小问题,参数的95046102数量应该随着17639952时间的44402523推移而不断的14213956减少。让每一个模型都变得更小,才能更好的20307560方便工作,但893107561553514098330181不能够忽略参数的52205815数量。

海报

本文转载自互联网,如有侵权,联系删除

本文地址:https://zuyea.com/hot/4190.html

相关推荐

感谢您的支持
文章目录