首页  >  资讯  >  文章
2023-06-27 11:05

360周鸿祎:大部分企业只需要百亿参数模型即可,多了浪费

AI奇点网6月27日报道 | 近日,世界互联网大会尼山对话中周鸿祎称,我们聚焦于两个主题:“构建安全可信的人工智能”和“人工智能赋能百行千业”。这与360自研的认知大模型智脑在相关方向的探索密切相关。借此机会,我愿意分享一些实践中得到的经验和思考。

在会议上周鸿祎表示:新一代的GPT大模型的诞生代表了通用人工智能和强人工智能的到来,标志着真正的智能涌现。这些大模型能够真正理解人类的语言,能够自然地进行交流和推理,这意味着人工智能第一次完整地理解了我们人类世界的知识,并且已经从感知进化到认知。它们不仅能够理解文字和语言,还能够进行分析和规划。未来,传统算法将被这些大模型所取代,它们在自动驾驶、机器人控制、蛋白质分析等许多重要领域都将发挥重要作用。

现在各界已经达成共识,GPT大模型将引发一场新的工业革命。我们都知道,在数字时代,大数据起着至关重要的作用,但是大数据就像是“石油”,难以直接利用。GPT的出现就像发电厂,将大数据从“石油”中提炼出“电力”,为各行各业提供赋能。如今,数字化已成为中国的国家战略,其中产业数字化是重要的发展机遇。我认为,产业数字化的终极目标是智能化,而GPT大模型将成为产业数字化的重要赋能者。

然而,在我们真正将通用大模型应用于政府、城市、行业和企业时,我们会发现公有大模型存在以下四个不足之处:

  • 公有大模型虽然通才,但缺乏行业深度。尽管GPT被认为是万事通,但在特定行业领域的专业知识和深度理解方面仍然存在一定的不足。这是因为大模型的训练数据通常是广泛而泛化的,难以覆盖特定行业的细节和专业知识。
  • 公有大模型的数据安全和隐私保护仍然是一个重要的问题。大模型的训练通常需要大量的数据,其中可能包含敏感信息。因此,在将这些模型应用于实际场景时,需要采取严格的数据安全和隐私保护措施,以防止数据泄露和滥用。
  • 公有大模型的解释性和可解释性有限。尽管大模型在处理自然语言理解和生成任务方面表现出色,但其内部运作机制仍然是一个黑盒子,很难解释模型做出某个预测或决策的具体原因。这在一些对解释性要求较高的领域(如法律和医疗)中可能带来挑战。
  • 公有大模型的持续更新和维护也是一个挑战。随着时间的推移和新数据的积累,大模型需要进行更新和迭代,以保持其准确性和性能。这需要投入大量的人力和资源来进行模型的训练和更新,同时还需要解决在线部署和集成的技术挑战。

针对这些不足,360自研的认知大模型智脑在探索中采取了一些策略。首先,我们在训练大模型时注重行业特定数据的引入,以增强模型在特定领域的专业知识。其次,我们致力于数据安全和隐私保护,采取多重措施确保用户数据的安全性。第三,我们正在研究解释性人工智能的方法,以提高大模型的解释性和可解释性。最后,我们持续投入研发资源,致力于模型的更新和维护,以跟进技术的发展和用户需求的变化。

构建安全可信的人工智能是一个复杂而重要的任务。360自研的认知大模型智脑在相关领域的探索中积累了一些经验和思考,我们将继续努力推动人工智能的发展,为各行各业提供安全可信的智能化解决方案。

10
查看相关话题: #周鸿祎 #360

相关文章