似乎对安全性的要求似乎并不像使用AI来满足安全相关要求的系统(特别是涉及大的潜在破坏/死亡风险的系统).谁有人建议为什么?我一直认为,只要你正确地编写逻辑,你在算法中投入的智能越多,这种算法就越有可能防止出现危险情况.实践中的情况有所不同吗?
大多数人工智能算法都是模糊的 - 通常在学习过程中学习.对于具有重要安全重要性的项目,您想要的是确定性的.这些算法更容易证明是正确的,这对许多安全关键应用程序至关重要.
我认为原因是双重的.
首先,AI可能会做出不可预测的决定.当然,它们可能是有益的,但在谈论安全问题时,你不能冒这样的风险,特别是如果人们的生命在线.
第二个是决策背后的"推理"并不总是被追踪(有时会有一个随机元素用于生成AI的结果),当出现问题时,没有能力确定"为什么"(在非常精确的方式)成为一种责任.
最后,它归结为问责制和可靠性.