New
product-image

随着道德专家警告AI开发者他们将面临严重的调查,对杀手机器人的恐惧即将到来

Special Price 作者:韩稠们

一位领先的道德专家警告AI开发人员,任何创造杀手机器人的公司都将面临严峻的调查

挪威独立伦理委员会主席Johan H. Andresen担心,致命的机器已经在发展中,数十亿美元的公司已经在寻求投资下一代武器

自主武器被开发用于在没有任何人为干预的情况下选择并射击目标

尽管该技术尚未推出,但斯蒂芬霍金,特斯拉首席执行官伊隆马斯克和苹果联合创始人史蒂夫沃兹尼亚克等科学家去年7月签署了一封信,要求禁止该武器

该说明写道:“人工智能技术已经达到了这样一个程度,即这些系统的部署 - 实际上即使不合法 - 几年内,几十年内都不可行

”这是因为五角大楼在十二月份表示,它将要求120亿至150亿美元用于包括自主武器在内的新技术的早期工作

挪威独立伦理委员会主席Johan H. Andresen表示:“这是一个公正的警告声明,是一个单挑

”更多内容:终结者式机器人正在接受培训,以杀死英国乡村的入侵蕨类植物“如果你认为关于开发识别癌症的技术,这很好

但是如果你正在适应它来追踪某个特定环境中的特定类型的个体,并与其他人合作制造出一种自主武器,那么如果我们看看你,就不要感到惊讶

“伦理委员会是一个独立的机构,为那些可能违反基金道德准则的公司提供建议

通常情况下,对于理事会来说,它必须有一个怀疑是违规的

阅读更多:机器人可以在2020年前接管酒店业,旅客欢迎自动化机构正在研究国防,电信和能源行业的腐败问题,建筑工人,纺织品和电子产品制造商的权利问题,以及今年开始,负责气候变化过度排放的公司