像变革性技术之前,AI的道德受到审查,增加生法规和政策限制了其应用的范围。gydF4y2Ba
人工智能、机器人和道德半岛app官网gydF4y2Ba

米歇尔Chabroux、高级主管、产品管理|gydF4y2Ba风河系统公司gydF4y2Ba
人工智能是一个动态的技术部门,为广泛的新兴应用领域的工业机器人和机器人过程自动化(战)。半岛app官网像变革性技术之前,AI的道德受到审查,增加生法规和政策限制了其应用的范围。所做的工作有哪些风险和促进一个道德的应用之一,今天的大多数授权技术吗?gydF4y2Ba
人工智能与机器人在哪里半岛app官网gydF4y2Ba
什么是人工智能和机器人技术中它又扮演了什么角色?利用计算的概念、模式识别系统学习和推理能力扩大了随着时间的推移,未来更广泛的范畴下机器学习,自然语言处理和数据的科学。通常使用在工业机器人、人工智半岛app官网能和感知的环境物理机器的运作以安全自动化操作(例如,一个机械手臂在一个汽车组装线)。工业机器人往往局限于重复性的动作要求小需要持续学习和通常不视为威胁。gydF4y2Ba
但人工智能不仅仅是传感器和致动器在工业机器;它也是发展背后的力量强大的软件的建模、决策支持、预测分析、和其他智能应用程序能够生成有问题,自动输出。因此,不像机机器人,人工智能应用程序摄取大量的数半岛app官网据需要实时解释和分析完成正在进行的学习更容易受到风险。gydF4y2Ba
什么是风险,道德和其他吗?gydF4y2Ba
实现人工智能的好处以道德的方式可能是一个相当大的挑战考虑到技术的范围仍在定义的过程和环境在其运作可以有点模糊不清。无论如何,这场辩论围绕艾未未的潜在问题方面正在进行,目前集中在几个关键问题:gydF4y2Ba
- 隐私和安全- AI上运行数据,因为现在所有的数据收集和存储是数字化和网络化,网络安全漏洞可能对个人和组织构成威胁。gydF4y2Ba
- 不透明度/透明度-数据处理和它是如何被使用?AI系统识别的模式可能不是真正的代表分析决定输出。数据选择和它的质量是如何确定?需要有透明、社区参与和算法问责的内置系统,以确保信心AI-derived输出符合道德标准和公平和自由的偏见。gydF4y2Ba
- 偏见,偏见会影响算法在很多方面,它的使用有缺陷的数据或数据集与问题无关的(统计偏差),无意识地将积极的还是消极的品质被分析的主题(无意识的偏见),或解释信息的方式证实了先入为主的观念(确认偏误)。gydF4y2Ba
解决道德的考虑gydF4y2Ba
与其他破坏性技术之前AI,法律法规的制定正在迎头赶上,因为它涉及到这方面的令人难以置信的增长和机遇。有重大的技术努力从人工智能系统检测和消除偏见,但他们是在早期阶段。此外,技术修复也有局限,他们需要开发一个数学概念的公平,这是很难得到的。gydF4y2Ba
尽管很少实际的政策已经产生,有一些显著的开端。一个gydF4y2Ba2019年欧盟政策文件gydF4y2Ba数据中心的创新gydF4y2Ba指出,“值得信赖的AI”应该合法,道德,和技术强劲,并详细说明了需求满足这些目标:人类的监督,技术的鲁棒性、隐私和数据治理、透明度,公平,幸福,和问责制。,目前,2021年4月,欧盟框架已经编纂,导致立法提议gydF4y2Ba纽约时报gydF4y2Ba所谓的“首开先河的政策,概述了企业和政府如何使用技术视为一个最重要的,但违反伦理道德,近年来科学突破。”gydF4y2Ba
一个评估人工智能应用程序的框架gydF4y2Ba
AI可以带来实质性的利益的公司成功地利用它的力量,但如果没有实现道德保障,也会损害公司的声誉和未来的表现。然而,与其他新引入的技术(例如蓝牙),发展中国家标准或起草立法是不容易完成。这是因为AI涵盖广泛,无定形的领土,从战场机器人自动化用于审查合同的法律助理。事实上,任何有关机器学习和数据科学现在被认为是人工智能的一种形式,使人工智能一个贫穷的候选人的行业标准的发展。无论如何,必须的东西,不可避免地会做。gydF4y2Ba
未来和增加工作之前,提出框架确保伦理实现进入重点。该框架是建立在四个关键支柱:信任、透明、公平、和隐私。gydF4y2Ba
- 信任——首先,能够证明一个人工智能应用程序的可信度阈值问题,需要肯定。人们需要知道他们是人工智能应用程序使用来自可靠来源和开发负责任的和可信的监督。gydF4y2Ba
- 透明度——人工智能是如何被使用的透明度和解释它的好处在特定用例场景会在减少担忧和扩大采用很长一段路。gydF4y2Ba
- 公平——开发人员需要表明,人工智能被部署在一个公平和公正的方式。AI以来其元素状态缺乏应用能力的判断,而不是主要集中于模式识别,算法需要调整消除偏见。过程也应引入避免偏见,我们人类,把由于自己的个人经验。gydF4y2Ba
- 隐私,这是至关重要的,开发人员考虑使用人工智能可能如何影响任何可识别个人的信息(PII)嵌入到数据正在处理中。虽然人工智能处理并消除一些隐私问题,它绕过与敏感数据的人工交互,它提高的程度和范围等信息是如何被使用,存储,以及谁可以访问它。gydF4y2Ba
结论gydF4y2Ba
人工智能在这里留下来努力驯服它的力量肯定会跟进。主动思考,业界人士正在调查方法硬塞进他们的应用程序到前面提到的框架。一种可能性是使用同行评审系统,帮助建立信任和提高透明度。这里,AI开发者将提交他们的用例评审一个人工智能社区类似于开源环境中。gydF4y2Ba
虽然开源最初经历的阻力,情况终于转过身来。起初,一想到赠送免费的源代码了心里的恐慌在全球科技公司首席财务官。随着时间的推移,它变得明显,透明度由分发开源软件社区监控,提供评论更新,创造了巨大的效率,导致了更大的发展。今天,没有一个软件公司,不能利用开源的代码。gydF4y2Ba
人工智能应用程序添加清晰的另一种方法是开发一个临时组织,公司将提交他们的项目和应用程序到一个中央AI注册表。与正式的标准组织,通常是由大型组织控制议程,注册中心将是一个自我报告的身体来收集反馈,建议,和肯定。最终,最好的方法确保人工智能应用程序部署在伦理上,可能是道德嵌入计算机科学课程从一开始。gydF4y2Ba
内容与本文作者的意见,不一定代表RoboticsTomorrow的观点半岛app官网gydF4y2Ba
评论(0)gydF4y2Ba
这篇文章没有任何评论。成为第一个在下面留下你的评论。gydF4y2Ba
特色产品gydF4y2Ba
