人工智能治理创新团队

以ChatGPT为代表的大语言模型,已经掀起了人工智能的全新革命。作为人工智能研究公司OpenAI的核心产品,ChatGPT一经发布即引发世界各国高度重视。全球科技大国纷纷布局大模型技术以抓住其带来的人工智能发展机遇。大语言模型正在推动一场以生成式人工智能为基础的行业变革和应用革命,其呈指数型增长的全球用户数使得大模型成为2023年最为耀眼的技术,将对人类共同体秩序的多个面向上产生重要影响。

 

以ChatGPT为代表的大语言模型实际性地拉开了迈向通用人工智能(AGI)的序幕,它的出现不仅为机器学习带来新的活力,也为人类开拓了更为广阔的认知领域。它突破了传统“推荐式”算法的束缚,激进地迭代了人类与人工智能的互相触动之形态。大语言模型甚至有可能将人类文明进程推向它自身的一个奇点(singularity)。

 

正是在这个意义上,关于大语言模型的治理(泰格马克等学者直接用“控制”一词)、安全与价值对齐,成为当下人类所急迫面对的研究性课题。我们有必要跨学科地追问如下问题

 

大语言模型的技术路径何以“涌现”出强大的智能表现(接近通用人工智能),该技术路径具有怎样的发展潜能,其鲁棒性是否能维持?

大语言模型能否被信任,以及如何使它更具有可信度(trustworthiness)?

在社会层面上,什么是大模型技术的应用潜能及其社会风险?

大模型技术分别对传统产业和新兴产业有什么不同的影响,并带来怎样的安全问题?

我国当下的科技创新体系和布局是否能适应大模型时代的技术创新步伐?

 

华东师范大学人工智能治理创新团队根植于华东师范大学政治学科的多学科交叉、合作融合的历史传统,推进以政治学为基础的文理工科融合,力图在人工智能领域占领新的学术制高点。研究团队从技术发展的深层逻辑出发,结合我国当前发展实际情况,以技术的可塑性、可能性与风险性为突破口,在筑牢安全底座的前提下,研判大模型技术的治理路径、价值对齐以及可信度风险。

 

在方法论层面上,研究团队以技术政治学为研究进路,系统性地探究以ChatGPT为代表的大语言模型的治理路径、信任危机、安全风险以及价值对齐这一系列挑战性(甚至是在文明层面构成挑战性)的问题,并在这基础上发展出一组围绕相关问题的批判性分析。作为全新的研究视角,技术政治学将技术看作是研究人类文明共同体秩序问题的前置性要素。

 

晚近十年来,“技术”从人类文明史的幕布背景走到舞台中央,成为当代世界的核心关键词之一。技术政治学,是考察当代世界变局的一个新兴视角。与技术统治学(technocracy)全然不同,技术政治学(technopolitics)致力于聚焦性地考察“技术”本身在政治实践中的实质性地位与作用,而不再被仅仅窄化为政治学-行政学框架下的“统治技术”。在技术政治学的研究进路中,技术不再是人类文明中的一个要素,而是它的一个构成性要素(constitutive element)。

 

研究团队在研究内容上,聚焦对大语言模型的治理路径展开跨学科理论性研究(技术-哲学-政治学-经济学,亦即,AI-PPE),并在这基础上展开批判性的分析。进而,研究团队对大语言模型的安全与信任问题展开对策性研究与战略性的分析,提供资政报告。技术政治学进路促使研究深入分析算法、算力和数据这三大技术性要素,揭示它们在由大语言模型所引发的知识生产方式与共同体秩序变革中可见的作用与不可见的影响乃至安全风险,以期为未来知识生产与政治治理的研究和实践提供有价值的启示和指导。

 

研究团队充分发挥团队研究的学科优势与跨学科研究视野,将人文社科同计算机科学与人工智能研究的分析工具创造性地运用于探究大语言模型与人类文明各面向之间的联动关系,从而探索技术应用和风险的传导机制。

 

创新团队成员(以姓氏拼音排序)

戴宇辰

甘莅豪

高奇琦

Conrad Hamilton

贺樑

姜宇辉

蓝江

Josef G. Mahoney

邵怡蕾

石欣怡

吴冠军(团队负责人)

叶淑兰

虞昊

余南平

 

微信公众号

微信公众号欢迎使用微信扫码关注