韩国今日正式实施《人工智能基本法》、外资要指定韩国代理人

【GameLook专稿,禁止转载!】

GameLook报道/就在全球人工智能监管竞赛日益白热化之际,韩国政府迈出了关键的一步。据韩联社及多家韩国媒体报道,韩国科学技术信息通信部宣布,自2026年1月22日起,全面实施《人工智能发展与信任基础构建等相关基本法》(以下简称《AI基本法》)。

法条全文:https://www.law.go.kr/lsInfoP.do?lsiSeq=268543+#AJAX

这部被视为韩国AI产业“宪法”的法律,在2025年1月21日正式制定公布后,经过了一年的准备期,终于正式落地生效。

该法案的实施标志着韩国成为继中国之后,亚洲又一个建立起系统性AI监管框架的国家。然而,相较于欧盟严厉的惩罚机制,韩国的这套新法更像是一次小心翼翼的试探,在保护本土脆弱的AI生态与确立国家数字主权之间寻找微妙的平衡。

《AI基本法》的核心在于确立了“先允许、后监管”的大原则。这并非要求企业在推出产品前获得政府的“许可”审批,而是通过法律明确了国家支持AI技术开发与产业振兴的责任(第3条),释放了政府不愿过早扼杀产业创新的信号。

与此同时,为了平衡风险,法案第12条明确规定在科学技术信息通信部旗下设立“人工智能安全研究所”。该机构将专门负责定义和分析AI风险、研究安全评估标准以及开展国际合作,成为韩国AI监管的“大脑”和技术后盾。

尽管鼓励创新,但法案对红线划分得十分清晰。法案第2条将人工智能明确划分为一般类和“高风险人工智能”。除了此前媒体关注的医疗诊断、核电站控制、贷款信用评分等领域外,原文特别将以下领域也纳入了严管范围:

犯罪侦查与逮捕:利用人脸、指纹、虹膜等生物识别信息进行分析和利用的系统。
教育评价:在幼儿园、小学及中学的教育过程中,用于学生评价的AI系统。
交通安全:涉及交通工具及设施的主要运行与控制系统。

针对这些高风险AI,法案第34条规定了严格的义务。相关企业必须制定风险管理方案,确立确保AI可靠性的措施,并履行向用户履行的告知义务。

针对泛滥的“深度伪造”问题,法案第31条第3款做出了极其具体的规定:当企业利用AI系统生成难以与真实分辨的虚拟声音、图像或视频时,必须以用户能明确识别的方式,告知或标记该内容由AI生成(即强制水印)。

谷歌的「AI水印」SynthID

此外,法案还特别强调了“解释权”。当高风险AI对个人做出重大决定(如拒绝贷款、招聘落选或学生评价)时,当事人有权要求企业在技术可行的范围内,提供最终结果的解释、主要判断基准以及训练数据的概要。

在此次实施的法案中,最受关注且最具争议的条款之一是第36条规定的“国内代理人指定制度”。法案明确规定,在韩国境内没有实体地址但在韩开展业务的海外AI企业,如果其用户规模或收入达到一定标准,必须强制指定韩国境内的代理人。

这一条款很明显就是直接剑指OpenAI、谷歌以及微软等全球科技巨头。根据新规,这些海外巨头必须在韩国本土设立能够承担法律责任的实体接口,负责提交安全性履行结果、申请高风险AI确认以及配合政府调查。这意味着,未来硅谷的科技巨头们不能再以“服务器在海外”为由,规避韩国的监管要求。

不过针对处罚措施,法案第43条规定的最高3000万韩元(约合人民币15.6万元)行政罚款,这一金额相较于欧盟动辄数千万欧元的罚单,在GameLook看来其实显得颇为微不足道。

然而,除了最基础的罚款,韩国政府手里还握着真正的“尚方宝剑”:整改与停业命令。

法案规定,如果企业违反了透明度义务(第31条)、安全义务(第32条)或高风险AI管理义务(第34条),科学技术信息通信部长官有权下达“停止该违规行为或进行整改”的命令。如果企业拒不执行这一行政命令,不仅会面临罚款,更将面临业务停摆的法律风险。

因此,该法案的逻辑并非通过高额罚金来“敛财”,而是通过确立行政管辖权,迫使海外巨头“拜码头”。它向海外企业传递了一个明确的信号:在韩国运营必须遵守游戏规则。只要海外巨头愿意设立代理人并配合监管,韩国政府并未打算将其拒之门外,这本质上是一部带有防御性质的“数字主权保护法案”。

放眼全球,AI监管的网格正在加速收紧。中国早在2023年就率先推出了《生成式人工智能服务管理暂行办法》。而作为全球监管风向标的欧盟《人工智能法案》预计将于2026年8月起全面实施。

韩国此次实施的《AI基本法》,虽然在罚款力度上不及欧盟,但在涵盖范围(如明确纳入教育评价)和机构设置(设立安全研究所)上,代表了像韩国这样拥有一定技术基础的“中间力量”国家的典型选择:既要拥抱AI带来的产业红利,又要通过底线监管维护数字主权,避免因过度监管而导致本土技术掉队。

如若转载,请注明出处:http://www.gamelook.com.cn/2026/01/586545/

关注微信