人工智能
人工智能三大原则,人工智能三大原则是什么
2024-11-08 02:29:07 人工智能 0人已围观
大家好,今天小编关注到一个比较有意思的话题,就是关于人工智能三大原则的问题,于是小编就整理了2个相关介绍人工智能三大原则的解答,让我们一起看看吧。
人工智能三大原则是谁规定?
一、人类为人工智能设定的三大原则
提及人工智能,我们一定要提一下艾扎克·艾西莫夫。艾西莫夫在著作《我是机器人》中所提的“机器人工学三原则”。艾西莫夫也因此获得“机器人学之父”的美名。
这三项原则分别是:
第一条:机器人不得危害人类。此外,不可因为疏忽危险的存在而使人类受害。
第二条:机器人必须服从人类的命令,但命令违反第一条内容时,则不在此限。
第三条:在不违反第一条和第二条的情况下,机器人必须保护自己。
这三项原则中,显然列在第一条的规则, 是最为重要的,就是不得危害人类。
但后来,阿西莫夫加入了一条新定律:第零定律。
第零条:机器人不得伤害人类整体,或因不作为使人类整体受到伤害。
阿西莫夫的科幻设定里,机器人三定律是植入到近乎所有机器人软件底层里,不可修改不可忽视的规定,绝不仅仅是“建议”或者“规章”。
可见,无论人工智能如何发展,只要为人工智能设定严格的不伤害人类的原则,并从底层设定为不可以修改的规则,人类就是安全,大可不必杞人忧天。
机器人三原则分别是:
第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。机器人三原则是1940年由科幻作家阿西莫夫所提出的为保护人类的对机器人做出的规定。
人工智能的四大关键原则?
这四项原则是:合理利用;可解释;保护隐私;安全且可靠。
1.解释原则(Explanation)
解释原则要求AI系统为所有输出提供相应证据和理由,但不要求证据是正确的、信息丰富的或可理解的,只要表明AI系统能够提供解释即可。解释原则不强加任何的质量评价指标。
2.有意义原则(Meaningful)
有意义原则要求AI系统提供单个用户可理解的解释。也就说,只要一个用户可以理解AI系统所提供的解释即符合该原则,不要求解释为所有用户所理解。有意义原则允许基于不同用户群体或个人的定制化和动态解释。不同用户群体对AI系统的解释需求不同,如系统开发者与系统使用者需求不同,律师和陪审团需求不同。此外,每个人知识、经验、心理等方面存在差异导致其对AI解释的理解不同。
3.解释准确性原则(Explanation Accuracy)
解释准确性原则要求相应解释正确反映AI系统产生输出的过程,不要求AI系统做出的判断准确。与有意义原则类似,解释准确性原则也允许用户差异性。有的用户(如专家)需要解释产生输出的算法细节,有的用户可能仅需要关键问题的解释。对算法细节要求的差异性恰恰反映了解释准确性原则与有意义原则的不同,详细解释可以加强准确性但却牺牲了部分用户的理解性。基于不同的用户群体定制化解释准确性测量指标。AI系统可以提供多类型、多层次的解释,因此解释准确性测量指标不是通用或绝对的。
4.知识局限性原则(Knowledge Limits)
知识局限性原则要求AI系统仅可以在其所设定的条件下运行,以保证系统输出。知识局限性原则要求AI系统能识别出未经设计或批准以及响应错误的情况。知识局限性原则可以防止错误、危险、不公正的决策和输出,从而增加AI系统的可信度。AI系统有两类知识局限性,一是所需判断不属于AI系统本身设定,如鸟分类AI系统无法分类苹果,二是所需判断超越内部置信度阈值,如鸟分类AI系统无法对模糊图像上的鸟类进行归类。
到此,以上就是小编对于人工智能三大原则的问题就介绍到这了,希望介绍关于人工智能三大原则的2点解答对大家有用。