5月29日,2025年的中国 - 谢海合作组织人工智能合作论坛以“智能中国,智能和SCO”为主题在天津举行。 360集团的创始人周·洪吉(Zhou Hongyi)受邀参与“安全,管理和管理危害”的交换,并表示,当人们对AI带来的巨大机会感到满意时,他们还必须应对他们伴随的安全风险和监管挑战。他建议一方面,我们应该“塑造成型”,并使用安全模型来解决大型模型的安全问题。另一方面,我们应该以辩证法和客观的态度来研究监管问题,并试图为确保安全的基础保留足够的空间。周·洪吉(Zhou Hongyi)在讲话中说,从真正的应用程序的角度来看,大型模型面临传统安全威胁和AI安全风险的双重挑战。这些问题已成为主要的瓶颈限制了AI行业的健康发展,并立即需要系统的解决方案。就传统的安全风险而言,系统弱点和供应链攻击已成为AI领域的“主要问题”。当攻击利用弱点时,公司业务的主要秘密,用户敏感的数据等将面临被盗的风险,这可能会给公司带来不可逆转的损失。 AI安全问题本身不可忽视。大型模型中的“幻觉”现象以及容易避免注射攻击的特征会导致严重的后果。在部分中,许多公司都建立了可以根据大型模型独立工作的代理商。这些“数字员工”有能力调用各种工具。当大型模型被恶意操纵或“幻觉”发生时,代理商可能会无意中发送重要的电子邮件,误解和其他误解,这将导致生产线条,将虚拟世界的风险发送到真实的生产和生活。面对这些新风险,传统的安全保护措施似乎被延长了。周元建议安全系统应该能够重塑创新的思维,并且“成型形成”一直是摧毁僵局的关键。 SO称为“模具”是指利用人工智能技术本身对Poweran的优势,是通过大型安全模型通过大型安全模型来实现智能安全防御升级的数字安全性。据了解,360个取决于300亿元人民币的10年技术投资结果,再加上过去20年中积累的大量安全数据以及领先的世界安全专家的丰富经验,实践了大型模型的专业安全并开发了完整的安全解决方案。目前,该安全模式已成功地应用于政府,能源,财务和教育,为其开发坚实的AI安全防御线。同时,360领导了建立大型安全联盟,该联盟在科学研究机构,大学和行业领导者,Nagashare技术成功,共同开发安全产品和服务中联合,并共同努力,以在所有情况下在生活的各种情况下促进AI的安全和有序的整合。在行政和管理层面上,周·洪(Zhou Hongyi)教导说,合理有??效的行政管理是人工智能行业健康发展的重要保证。目前,世界各地都发布了旨在调节技术应用和预防潜在风险的AI法规政策。但是,人工智能技术的发展每天都在变化,以及要求监管机构以辩证和客观观看的CO操作的优点和局限性,并保留充足的S在确保安全的同时进行更改的步伐。大型模型的“幻觉”问题的获取为例,此功能可以导致偏差信息,但也提供了大量的创造力和想象力,在科学研究领域起着积极的作用,例如新分子药物结构的设计和蛋白质结构的预测。周·洪吉(Zhou Hongyi)认为,从早期互联网开发的“庇护所的安全原则”中得知,并在AI管理中采用灵活性管理技术是很高兴的。也就是说,基于遵守安全的底线,我们将对由技术特性造成的一般错误给予特定的容忍度,以鼓励变革。通过形成技术标准和监管概述,澄清政策边界,并指导企业在标准范围内积极开发和改变,以防止由于过度管理而抑制工业发展。 (负责编辑:您Linghua)