当前位置:  开发笔记 > 人工智能 > 正文

为什么安全要求喜欢不鼓励使用AI?

如何解决《为什么安全要求喜欢不鼓励使用AI?》经验,为你挑选了2个好方法。

似乎对安全性的要求似乎并不像使用AI来满足安全相关要求的系统(特别是涉及大的潜在破坏/死亡风险的系统).谁有人建议为什么?我一直认为,只要你正确地编写逻辑,你在算法中投入的智能越多,这种算法就越有可能防止出现危险情况.实践中的情况有所不同吗?



1> tvanfosson..:

大多数人工智能算法都是模糊的 - 通常在学习过程中学习.对于具有重要安全重要性的项目,您想要的是确定性的.这些算法更容易证明是正确的,这对许多安全关键应用程序至关重要.



2> casperOne..:

我认为原因是双重的.

首先,AI可能会做出不可预测的决定.当然,它们可能是有益的,但在谈论安全问题时,你不能冒这样的风险,特别是如果人们的生命在线.

第二个是决策背后的"推理"并不总是被追踪(有时会有一个随机元素用于生成AI的结果),当出现问题时,没有能力确定"为什么"(在非常精确的方式)成为一种责任.

最后,它归结为问责制和可靠性.

推荐阅读
小色米虫_524
这个屌丝很懒,什么也没留下!
DevBox开发工具箱 | 专业的在线开发工具网站    京公网安备 11010802040832号  |  京ICP备19059560号-6
Copyright © 1998 - 2020 DevBox.CN. All Rights Reserved devBox.cn 开发工具箱 版权所有