从ChatGPT到战场:OpenAI与军火商携手推动AI军事应用
OpenAI与Palmer Luckey创立的国防技术公司Anduril Industries宣布了一项“战略合作伙伴关系”,旨在为国家安全任务开发和负责任地部署先进的人工智能解决方案。这一合作标志着人工智能在军事领域的应用迈出了重要一步,同时也引发了关于AI伦理和技术扩散的广泛讨论。
合作背景与目标
Anduril Industries是一家专注于国防和安全技术的公司,由虚拟现实设备Oculus的创始人Palmer Luckey创立。此次与OpenAI的合作将主要集中在反无人机技术的开发上。通过结合OpenAI的强大语言模型和Anduril的硬件平台,双方计划提升美国反无人机系统的能力,包括实时探测、评估和应对潜在的空中威胁。
这项合作不仅限于无人驾驶飞机,还包括来自传统有人驾驶平台的威胁,如有人驾驶的飞机。人工智能模型将用于快速合成时间敏感的数据,减轻人类操作员的负担,并提高对复杂情况的认知和响应速度。
伦理与争议
尽管使用AI来识别和摧毁无人驾驶无人机听起来可能是一个合理的选择,但这种技术的应用也带来了深刻的伦理问题。特别是,当涉及到决定是否应该攻击敌人时,AI的决策能力受到了质疑。OpenAI一直对其技术应用于武器持谨慎态度,禁止其被用于发展武器系统。然而,随着此次合作的展开,OpenAI似乎正在逐渐放宽其政策,允许某些军事应用。
近年来,关于自主武器和AI驱动的军事技术的争论日益激烈。2015年,埃隆·马斯克、斯蒂芬·霍金和史蒂夫·沃兹尼亚克等知名人士签署了一封公开信,呼吁禁止“进攻性自主武器”。自那时以来,AI技术取得了显著进步,并开始出现在更多的武器和军用车辆中,包括自动驾驶的喷气式战斗机。然而,AI系统的错误或误判可能会带来严重的后果,特别是在控制致命武器时。
行业趋势与未来展望
其他AI公司也在积极进入利润丰厚的国防市场。例如,Anthropic与Palantir合作,谷歌DeepMind也与军事客户签订了合同。这些合作反映了AI技术在军事领域的广泛应用前景,但也引发了关于技术伦理和社会影响的担忧。
一个特别令人关注的问题是AI在核导弹系统中的应用。虽然美国政府表示永远不会将AI用于核导弹系统的控制,但五角大楼最近表示希望利用AI增强核指挥和控制决策能力。