您现在的位置: 首页 > 资讯

前沿科创论坛在河套举行 深港专家共探AI“技术扩散”路径

2026年01月21日 来源:南方日报

[ ]

  “AI跟前三次工业革命不一样,前三次是解放双手,这次是解放大脑。”

  “自动驾驶的所有创新几乎都来自企业,高校已不具备优势了。”

  “AI时代的产品经理不仅需要极致的技术追求,更需要‘克制’的伦理底线。”

  ……

  一场聚焦人工智能与技术扩散的思维盛宴——“扩散致远:前沿科创论坛”日前在河套深港科技创新合作区(下称“河套”)举行,深港专家和资深业内人士共探AI浪潮下科学研究、人才培养的重构之路,以及伦理边界失范挑战。

  河套深圳园区发展署副署长余杰表示,河套作为深港合作的桥头堡,正致力于打造开放、共享的科研环境,推动前沿技术赋能千行百业。“科技创新不应只停留在实验室,更应像水中的涟漪一样,向产业、向大湾区乃至世界扩散。”

  “科研中心正从学术机构向企业转移”

  香港科技大学深港协同创新研究院院长杨晶磊认为,与前三次工业革命“解放双手”不同,AI革命解放的是大脑,直接冲击了人类的认知与决策核心。如果科研工作不用AI,一定会被时代淘汰,并以自己的研究领域举例。

  “像材料学这样传统上依赖人工实验的学科,如今也必须通过自动化和AI赋能,将科研人员从繁琐的重复工作中解放出来,转向更有见地的科学发现。”杨晶磊说。

  深信科创创始人、中国科学技术大学计算机学院教授杨子江则抛出了一个更具冲击力的观点:“科研创新的中心正在从学术机构向拥有海量数据和算力的企业转移。在自动驾驶、具身智能等前沿领域,企业往往是新技术的首发地,高校反而成为了学习者。”

  事实上,该现象不仅存在于自动驾驶领域,在目前火热的大模型研发上也有直接体现。斯坦福大学每年发布的《AI指数报告》显示,2014年是大模型研发的关键转折点。在此之前,最前沿的大模型(如早期的深度学习模型)主要由高校(如MIT、斯坦福)研发;2014年后,随着数据、算力、人才的规模化集聚,大型平台企业(如谷歌、微软、OpenAI、阿里、腾讯)成为大模型研发的绝对主体,高校和专业科研机构的占比微乎其微。

  AI时代“技术扩散”路径的逆转,意味着未来的科研将不再是以高校为主体,而是深度植根于产业应用的土壤中,科创企业在其中的角色将越发重要。

  “企业与社会应深度参与知识迭代”

  AI的崛起也让传统教育模式面临严峻挑战。香港科技大学综合系统与设计学部主任张黔认为,教育应该更关注那些AI难以替代的领域,如发现问题的能力、系统性思维以及应对未知世界的探索欲。

  “为了让学生更好地回应社会和企业需求,从2018年起,我们为本科生和研究生探索设计一套涵盖跨学科知识、设计思维和创业精神的体验式教育模式。不仅要求所有任教老师有创业经验,还拓展了大量校外课堂、实习基地,用以人为本的教育方式,找到真正需要被解决的问题。”张黔说。

  杨子江则观察到一个令人忧虑的现象:尽管时代正在剧变,AI带来的冲击越来越显著,但部分毕业生反而显现出“求稳”倾向,可能会导致未来创新人才储备不足。他主张打破传统的教学方式,例如对传统的“45分钟课堂”进行调整,大学课堂必须面向实际需求。

  腾讯战略传播中心总监廖芳莉则提出了一种“社会化培养”视角,认为粤港澳大湾区不仅拥有众多知名大学,还拥有全球最完整的产业链和极其浓郁的创新创业氛围,人才培养绝不只是高校的任务,企业与社会应当深度参与“最后一公里”的知识迭代。

  廖芳莉以2025年举办的“腾讯广告算法大赛”为例。该赛提供了腾讯真实业务场景中脱敏后的千万级量级数据集,参赛学生可以基于真实商业问题展开研究,最终吸引了全球超过2800支队伍、8400多名全球各地的学生参加,覆盖340余所中国高校及近30个国家的140多所国际院校,不仅为企业提升效率,也让学生获得了宝贵的挑战产业前沿问题的实践机会。

  共熵服务中心理事长钟以山则提出了“规则翻译者”这一关键角色。他认为,中国正在积累越来越庞大的先进技术,像华为、腾讯都在数字技术领域拥有大量的高价值专利,但中国企业在国际标准与游戏规则的制定上长期处于弱势。未来的高端人才不仅要懂技术,更要能将复杂的技术语言“翻译”为国际通用的标准规则,通过“修路”让中国创新在全球范围内实现更高效的扩散。

  “AI不仅要‘好用’,更要‘可信’”

  2026年,AI应用加速落地,无论是与硬件结合还是智能体化,用户数据泄露风险都在加大,科技领军企业在技术投入、商业模式更迭和用户隐私保护方面的张力也越来越大,“如何确保AI向善”成为行业与社会越来越关注的问题。

  “模型的更新速度实在是太快了,快到让人感到‘猝不及防’。”腾讯研究院前沿科技研究中心副主任刘莫闲指出,AI指数级的进化速度,不仅重塑了生产力,也将人类推向了一个前所未有的伦理十字路口。人类往往还来不及构建完善的法律与道德防火墙,就可能深陷技术带来的隐私泄露的风险之中。

  杨子江从具身智能的维度,深刻剖析了隐私挑战的具象化。他提出,未来的AI不再仅仅存在于屏幕之后,而是拥有“身体”的机器人。“当一个机器人在餐厅服务或进入家庭环境时,它不仅在执行任务,其搭载的摄像头和传感器也在无间断地采集周围环境的数据。”杨子江直言,如果这些涉及“你在哪里、跟谁吃饭、说了什么”的敏感数据在云端被滥用,隐私将荡然无存。

  廖芳莉将讨论引向了“价值对齐”与商业自律。她指出AI时代的技术扩散,往往存在“利益不一致”的隐患。“你的AI助手真的是以你的利益为第一考量吗?如果它的操作运营以实现背后公司利益最大化为前提,而不是用户福祉为依归,那么隐私泄露与误导性决策将不可避免。”廖芳莉认为,AI不仅要“好用”,更要“可信”,AI理当成为人类长期相处的伙伴,而不是潜在的监视者。

  杨晶磊则建议要制定规范和限制AI的能力,他主张在科研与应用中建立“沙盒机制”,即在一个可控、可观察的环境中进行技术扩散与伦理实验。

  作为深港科技创新合作的桥头堡,河套是前沿技术向外辐射的“圆心”。此次承办活动的共熵服务中心专注于推动科技创新与国际标准深度融合,致力于为科学家、工程师及高新企业提供“规则翻译”与标准国际化服务,通过建立开放、协同的科创生态,助力中国技术在全球市场实现更高效的合规扩散与价值释放。

  (记者 张玮)

扫一扫,分享到微信朋友圈