时间:2020-03-16 来源:互联网 阅读次数:
他认为人工智能的最大的风险并非恶意,而是能力,一个超级聪明的AI将非常善于实现其目标,如果这些目标与我们的目标不一致,我们就会陷入困境。
他担心,一旦出现超级人类,那些普通人可能就无法参与竞争了,而这些情况十分有可能在本世纪出现。除了对超级人类表示担心,www.zr-fanuc.com,工业机器人维修,机器人示教盒维修,近年来,霍金还对火热的人工智能还提出了强烈警告。他写道:“超智能人工智能的出现将成为人类有史以来最好或最坏的事情。”
霍金认为,子锐机器人维修,富人们选择编辑他们的DNA并操纵他们孩子的基因,可能会导致一群精英人类的诞生。而那些没办法修改基因的人类将会被降级为子类,而拥有权力和财富的人类则可以调整他们的基因组,以提高力量、记忆力和抗病能力。
知名物理学家史蒂芬霍金于今年3月逝世,子锐机器人维修,去世前他在英国《泰晤士报》上刊载了一系列文章对未来做出了非常严峻的预测,最近出版的书籍整理收集了这些文章。