
【名家专栏】当AI用于监视 谁来坚守良知?
The Epoch Times
3月7日,总部位于加州旧金山的OpenAI机器人和硬件负责人凯特琳‧卡利诺夫斯基(Caitlin Kalinowski)因公司与五角大楼(Pentagon)达成的交易而提出辞职。她表示,在未经司法监督的情况下监视美国公民,以及在未经人类授权的情况下赋予人工智能致命自主权,这些做法“理应得到更充分的考虑”。此前,微软(Microsoft)、...
在她离职之前,微软(Microsoft)、谷歌(Google)和亚马逊网络服务(Amazon Web Services,简称AWS)等,作为各个企业和个人用户访问AI初创公司Anthropic(其总部同样位于加州旧金山)开发的Claude平台的渠道,已各自向其用户发布了措辞谨慎的法律声明,称五角大楼对Anthropic公司所作出的供应链风险认定仅适用于其联邦合同,并不影响用户通过其平台访问非国防工作负载。
这个(供应链风险)认定——与之前用于华为(Huawei)和中共军工承包商的认定相同——是首次被用于一家美国本土公司,其影响范围远远超出Anthropic公司的联邦合同范围,威胁到该公司与各行各业的承包商、分包商和企业客户的关系。为期六个月的过渡期将要求所有五角大楼承包商证明其在任何工作流程中均未使用Claude软件。
而其中的导火索就是,Anthropic公司拒绝越过卡利诺夫斯基在辞职信中提到的那两条底线。政府的回应是动用了其最强大的监管武器。几天后,美军在伊朗的军事行动中使用了Claude软件——在空袭期间进行情报评估和作战模拟。
3月9日,Anthropic公司提起两起联邦诉讼——一起在加利福尼亚州北区(Northern District of California),一起在哥伦比亚特区巡回上诉法院(D.C. Circuit Court of Appeals)——以宪法和法律依据对该认定提出质疑。
正如最新的卡利诺夫斯基辞职声明和各平台声明所证实的那样,这个事件尚未解决。
这场对峙最终引出了一个更广泛的问题:企业良知对于一个健康的社会来说究竟是负担还是必要的保障?
Anthropic公司与五角大楼之间的争议并非在于政府要求的合法性。双方并未违反任何法律。Anthropic公司划定的两条红线并非法律上的结论,而是道德上的抉择——每一条红线的利害关系都值得明确阐述。
第一个问题涉及国内监控。用户的位置记录、购物记录、浏览模式和社交关系都可以合法地从商业数据经纪商那里购买。人工智能消除了收集这些信息的最后一个实际限制:过去大规模监控全体人口所需的耗时、成本和人力。20世纪需要极权国家机器才能实现的功能——系统地监控每个公民的行踪、交往和行为——如今只需一份合同和一个功能强大的模型即可完成。Anthropic公司的拒绝承认了一个简单的现实:自由与其说取决于法律允许什么,不如说取决于国家有能力做什么。当这种能力在一夜之间增长一个数量级时,为早期技术时代所制定的法律框架将不再能可靠地守护它们原本想要保护的自由。













