近日,美国搜索巨头谷歌被发现在其人工智能原则中删除了一项承诺,即避免将AI技术用于武器等潜在有害应用。此举引发了外界对其是否会将AI技术用于军事目的的疑虑。
此前,美国人工智能领军企业OpenAI、Meta等已经放任自家模型用于军事目的。而谷歌此次的行为,被视为“偷偷摸摸”地加入了这一阵营。
谷歌高级副总裁James Manyika和人工智能实验室DeepMind负责人Demis Hassabis随后在一篇博客文章中,为这一举措进行了辩护。他们认为,企业和政府需要在“支持国家安全”的人工智能方面进行合作。
这一事件再次引发了关于人工智能技术的伦理问题。一方面,人工智能的发展能够推动社会进步,提高生活便利性。但另一方面,如果人工智能技术被用于军事等潜在有害的领域,可能会带来不可预知的风险。因此,如何平衡人工智能技术的发展与伦理问题,成为了一个亟待解决的问题。