您当前的位置:首页资讯前沿科技正文

揭穿人工智能的神话与现实

放大字体  缩小字体 发布日期:2019-04-28 浏览次数:14
  从最近的学术进展和AI的行业采用中吸取的教训
 
  几年前,很难找到任何人在学术机构之外就人工智能(AI)进行认真的讨论。今天,几乎每个人都在谈论AI。与任何新的主流技术趋势一样,人工智能和智能系统成为现实的新浪潮正在创造好奇心和热情。人们正在加入其潮流,不仅增加了很好的想法,而且在许多情况下还增加了许多虚假的承诺,有时甚至是误导性的观点。

 
揭穿人工智能的神话与现实
  
  由巨大的思想家和学术研究人员建立,行业的AI采用和全球学术界的进一步发展正以比任何人都要快的速度发展。我们坚信,我们的生物学限制越来越成为创建智能系统和机器的主要障碍,这些智能系统和机器与我们合作,以更好地利用我们的生物认知能力来实现更高的目标。这正在推动各行各业的大量需求和投资,以应用人工智能技术来解决实际问题并创建更智能的机器和新业务。
  
  人工智能在过去的几十年里克服了许多障碍,主要是在学术方面。然而,它现在面临着迄今为止的主要挑战之一,那就是在现实世界的行业场景中的采用以及围绕它的神话和误解。不幸的是,由于关于AI能做什么和不能做什么的令人困惑和冲突的消息,行业领导者在快速拥挤和嘈杂的爱好者,平台供应商和服务提供商的生态系统中区分事实和虚构是具有挑战性的。然而,一旦尘埃落定并且事情变得清晰,人工智能的真相就会持续下去,最终将宣告失败者和获胜者。
  
  面临的挑战是行业领导者如何对人工智能能够和不能为他们的业务做些什么做出现实的意见,并不断更新,以便他们能够引导他们的组织以正确的方式应用人工智能来解决现实问题并转变他们的商家。此外,学者和AI从业者有责任摆脱他们的泡沫并与行业专家交流,以便能够进一步发展人工智能的学术基础,使其真实世界的采用更快,更有价值和更负责任。
  
  当前行业中AI采用的“混乱”状态
  
  在过去几年中,来自几乎所有行业的商业领袖都在努力了解人工智能(AI)这一新的神奇技术,以及他们的企业如何从中受益。不幸的是,到目前为止,大多数基于AI的解决方案的实现都没有超越概念证明(PoC),其形式是分散的机器学习(ML)算法,范围有限。虽然人工智能的采用水平和方法正在为公司浪费许多机会和资源,但它有助于说服业务和IT领导者人工智能可以推动变革性和相关创新。
  
  今天的许多PoC项目都使用基本上简单的统计方法为其分析解决方案添加一些简单的预测或分类功能,并将其称为AI解决方案。这仍然被定义为分析或可能的高级分析,在理解结果和做出决定或采取行动时仍需要广泛的人为干预。
  
  随着业务流程和运营条件的不断变化,新生成的数据和不同业务因素的不断变化正在降低精度水平,并且这些算法可以提供的价值随着时间的推移而变得无用甚至导致危险的决策。
  
  这种方法及其结果只是令人沮丧的现实的另一部分,这种现实使商业领袖感到困惑,并以适当的方式阻碍正确采用复杂的AI技术以获得有价值的结果。
  
  目前尝试在某些业务领域挤压少量机器学习(ML)算法以获得快速收益的方法仅仅是一种风险,并且可能导致跨行业的AI采用受挫,从而引发另一个“AI冬天”,这次是在行业方面而不是学术方面。以这种方式应用甚至成熟的AI技术可能会增加一些价值,但可能给组织带来新的危险的“人为愚蠢”,带来灾难性的后果。
  
  在接下来的几年中,公司无法承受人们对AI能做什么和不能做什么的混淆和犹豫,如何与其他技术集成以创建智能解决方案或机器以及在何处适当应用它。
  
  在接下来的几节中,我将重点介绍一些当前的神话和误解,这些都掩盖了人工智能的现实并阻碍了它的正确采用。我还将分享一些关于如何克服它们的想法,以加速人工智能的现实采用并降低商业和社会的风险。
  
  分散ML算法的诅咒
  
  在过去的几年中,一些积极的商业领袖使用开源ML库开始自己和他们的业务领域内的AI计划,重点关注一些关键的优化决策。这些努力通常不是有组织的全公司计划的一部分。虽然这些努力增加了一些价值,并帮助不同的团队在使用AI功能解决一些业务问题方面拥有第一次经验,但它导致分散的ML算法在各组织之间松散。不幸的是,这种分散的ML算法并没有完全解锁隐藏在数据中的价值,也没有利用组织所拥有的有价值的商业知识。此外,它们还增加了公司的潜在风险。
  
  分散ML算法带来的一些主要风险是:
  
  可以使用有限的一组特征和数据来训练算法,从而导致业务区域内外的错误或有时危险的业务决策。
  
  在优化本地运营决策的同时,此类算法可能会无意中对其他业务领域甚至全球运营产生负面影响。
  
  这些单独的算法可以很容易地被内部或外部参与者做出错误的决策操纵和误导,从而增加了一个主要的新类别的网络安全风险。
  
  训练一些机器学习算法可能需要昂贵的计算能力,为小型企业单元增加高成本。在许多情况下,这导致业务部门完全放弃AI,这是基于对高采用成本的错误印象。
  
  通常,大多数(如果不是全部)业务功能和运营单元都是直接连接的 他们生成的数据,他们创建的知识以及他们所遵循的角色是共享的,并且是相互依赖的。人工智能可以看到人类通常无法看到的大量数据和功能之间存在一些相互依赖关系。这可用于创建强大的数据和知识平台,使跨组织的分布式AI系统能够将数据,知识和决策的分散性从弱点转变为主要优势。
  
  组织必须迅速采取行动,在松散的情况下整合所有AI计划和ML算法,并将其转移到整体AI采用策略中的标准企业级安全AI平台。
  
  这将使分布式互联的AI解决方案能够提供智能,其中需要以最大的利益和对业务的转型能力做出决策。此举还将加速AI的成功采用,降低采用成本,提高投资回报率以及降低公司的内部和外部风险。
  
  人工智能采用还是智能企业创建?
  
  在AI系统可以为我们做出这样的决定之前,公司必须决定他们是否只想采用AI或最终创建一个智能企业,这将超过AI的采用。目前关于机器人过程自动化(RPA)的讨论以及它们是否属于人工智能正在进行关于人工智能采用偏离轨道的讨论。是的,RPA不是人工智能的一部分,至少基于人工智能的学术定义,尽管存在所有误导性的大声营销声音,但不能这样做。目前的RPA技术只不过是简单的脚本,遗憾的是,在许多情况下,这些脚本只是自动化多年来积累的当前业务流程,而且主要是考虑到人的设计。
  
  如果做得好,RPA和智能过程自动化(IPA)将成为重新设计和自动化新员工的基础流程的机会,在这些流程中,人员和机器智能地协作并更加紧密地协作。
  
  企业领导者应该有计划创建智能企业,提供包含智能流程的智能产品和服务,旨在利用人类的生物智能和机器的人工智能功能,而不仅仅是自动化重复流程以降低成本并确认他们可以做出的一些决策没有新技术就可以独自完成
  
  智能企业的一些基本功能是,它的产品,解决方案和服务可以智能地使用他们和人类创造的集体知识,能够不断学习更好地做事,做新事物以及智能地做出反应。不断变化的环境和需求。
  
  鉴于智能企业的工件和内部和外部商业环境的快速增长的复杂性,过多的传统人为干预将成为实现智能企业目标的主要瓶颈。这是由于我们有限的生物学能力,例如手指和眼睛运动等简单的任务。
  
  因此,组织需要停止浪费时间讨论RPA,并制定智能企业的战略和路线图,其中应包括:
  
  整体愿景,智能企业的定义和路线图,包括产品,解决方案和服务,以动态的方式解决原因,内容,方式和时间。
  
  为人机+机器设计的新智能流程路线图。
  
  超越AI和ML算法的战略,以确定其他技术,这些技术对于拥有端到端智能解决方案和产品至关重要,如新传感技术,智能物联网网关,边缘计算硬件以及包括量子计算在内的HPC。
  
  计划在我们构建,使用,操作和维护此类智能系统和解决方案的过程中创建所需的文化和组织运营转变。
  
  计划创建一个创新生态系统,该生态系统应成为新业务的一个组成部分,以便为新业务和联合客户构想和提供新的智能服务。
  
  人机接口(HMI)的新定义给出了由自然语言处理和理解(NLP / NLU)等AI技术支持的新UI / UX以及由增强现实/扩展现实技术加速的高级计算机视觉。
  
  人工智能技术还没有为工业应用做好准备。这是神话吗?
  
  目前的AI受益于数十年来严肃的高质量学术研究。然而,显而易见的是,当前人工智能系统的一个主要缺点是缺乏现实生活经验,这对我们所有人来说都是必不可少的。当AI系统在使用之初未能给出正确答案时,这通常不意味着底层AI算法或数学模型不够成熟。
  
  与人类一样,AI算法需要更多的实际经验,可能包括通过算法自己的试验和现实世界中的错误创建的更多数据。
  
  因此,在早期阶段判断人工智能解决方案同时他们仍然没有或几乎没有经验是不公平和技术错误的。这是当今最常见的错误之一,通常会导致围绕AI底层模型成熟的挫折和误解。在将企业部署到企业之前,我们必须为人工智能解决方案提供学习和仔细评估的时间。
  
  例如,获得足够的实际经验的机器学习能力,如计算机视觉(CV)和自然语言处理(NLP),是当今人工智能中最成熟和最广泛采用的部分。它们是许多工业和消费者应用和产品背后的认知引擎,对商业和个人生活产生了最积极的影响。
  
  这是传统分析和AI解决方案之间的关键区别。在分析中,软件供应商在没有实际数据的情况下构建软件解决方案。相反,在AI解决方案中,我们使用问题描述,实际数据,领域知识和一组特定目标来创建,训练和验证ML算法。没有数据,没有算法!在AI中,没有交钥匙解决方案。这是一个必须立即发生的关键思维转变,以避免这种误解。
  
  思维方式的这种转变与设计分布式智能系统的新原则相结合,如多智能体分布式和互联认知系统,将在决定组织利用人工智能能力的努力是否会成功,或者只是增加更多挫折感,浪费机会和新事物方面发挥重要作用。风险。
  
  此外,AI系统每个设计必须具备的关键功能之一是它应该能够不断学习并随着时间的推移动态地利用有效的学习方法。选择正确的初始架构以及持续学习方法,例如监督,无监督,强化学习或混合使用,对于成功的AI采用非常重要。终身学习(LLCL)是当今最主要,最有前途的人工智能研究领域之一。然而,它仍然是当前机器学习和神经网络模型的挑战,因为从非固定数据源连续获取新信息通常导致灾难性遗忘先前学习的知识或突然降低精度。
  
  虽然要使AI系统不断学习和发展其环境还有很多工作要做,但是大多数来自初创公司和老牌厂商的AI平台都提供了强大的工具来实现这一目标。
  
  是什么决定人工智能在业务中的应用不是人工智能的学术方法和算法,也不是围绕它们构建的技术平台,而是我们采用的方式,构建并将它们集成到业务解决方案和工业产品中。
  
  过分夸大的数据承诺
  
  截至今天,培训,测试和验证当前??的机器学习算法,特别是深度机器学习是一项挑战,因为它们需要大量优质数据。此外,过去几年表明,在许多情况下,企业没有足够的历史数据来满足当前ML方法所需的质量和数量。此外,我们今天获得的数据是由人类及其生物优势和弱点产生和收集的。
  
  即使在我们拥有足够数据的情况下,在使用初始算法之前,我们还必须在不同领域投入大量精力,例如数据工程,数据分析,特征工程,特征选择,预测建模,模型选择和验证。此外,手动调整第一代算法的内部架构的设计和不断改进需要大量繁琐和重复的工作,并且需要大量的计算能力,特别是如果我们想要以恒定或增加的精度解决严重的问题。
  
  当前的“预测分析”解决方案使用简单的统计模型来根据可用的历史数据进行预测。它假设未来将以简单直接的方式追随过去。在许多情况下被证明是错误的假设。例如,工业设备在原因,性质和后果方面的失败历史是不同的,因为工人受过更好的培训,可以获得更多信息,甚至有更好的工具来测试,修理和维护工作设备。这使得“昂贵”的历史数据部分误导。
  
  我们对过去事件的有限或偶然的偏见理解和解释以及这些事件发生的背景降低了AI解决方案的精确度,以准确预测通常在我们无法完全理解的现实中发生的复杂事件。
  
  此外,科学家们更多地警告统计推断和误用统计显着性和“P值 - 概率值”,这在某些情况下可能导致灾难性后果。一些科学家甚至呼吁放弃统计显着性的概念,特别是在需要高精度预测的情况下。最后,正如在许多情况下所看到的那样,我们发现结果只不过是重申预先确定的决定。
  
  人类大脑最初使用较少的数据进行训练,但通过多年生活经验收集的大量数据进行了扩展,验证和持续教授。
  
  今天,ML算法训练有大量数据,并用较少的数据(约70%至30%)进行测试。因此,AI系统不应仅仅收集和分析海量数据,而应该从简单的任务开始,能够不断学习,增加更多功能,扩展知识,提高推理能力,并通过收集的数据或新环境适应新环境。合成生成。
  
  在过去几年中使用AI解决复杂问题的关键经验之一是我们需要新的AI系统架构,这种架构依赖于更少的数据和更少的人工监督。因此,AI从业者和学术研究人员正在超越传统的机器学习架构,并试图创建新的ML算法,可以创建和理解其自创或获取的数据。
  
  我们在一些AI / ML领域看到了很多进展,例如新的生物学启发的数学方法,更高效的神经网络架构,生成性对抗网络(GAN),多智能体深度强化学习(MADRL)以及遗传和进化算法。一个共同的目标是减少AI对人类创建的大量数据和知识的依赖。此外,开发AI专用硬件(如GPU,TPU和FPGA)的巨大进步正在使这种新方法成为可能。
  
  此外,即使使用当前的ML算法,结合更有效的知识表示技术(例如进化和协同进化模块化多任务知识表示技术)将有助于组织从相同或更少的数据中发现更多知识。人类大脑启发的新推理方法正在快速出现,使我们能够构建随着时间的推移可以像人类一样推理的系统,但没有我们的生物限制,提高了机器所做决策的精确度和速度,并避免了由于缺乏机器推理而导致的灾难性决策。极有可能。
  
  虽然人工生成的数据将继续发挥重要作用,尤其是在行业中采用人工智能的早期阶段,但随着时间的推移,使用人工智能技术和架构的正确组合将需要更少的数据并充分利用公司的集体知识来节省时间在创建更安全,更高效的人工智能业务系统的同时也做出了努力。
  
  人工智能解决方案设计安全,真的吗?
  
  我们都希望智能解决方案能够以传统软件解决方案以外的其他方式为自己辩护。从技术上讲,人工智能系统有可能检测到敌对行为,并且在某些情况下,可以主动采取先发制人的措施来保护自己。今天,AI被有效地用于增强传统的网络安全解决方案,使他们能够早期识别或预测攻击并推荐对抗系统的原始攻击。
  
  鉴于对人类生成数据的强烈依赖,具有甚至深度神经网络架构的ML算法也很容易被误导以采取错误甚至危险的决策。
  
  通常,黑客访问传统的软件系统来窃取数据。他们攻击工业控制系统并误导他们做错误的行动。然而,AI系统的核心主要是算法而不是数据。这在一些人中产生了天生绝对安全的幻觉,因为没有任何东西可以偷窃。但是,网络攻击者不是窃取数据,而是可以向AI系统提供错误数据,以操纵他们做出正确决策的能力。例如,攻击者可以访问电子医疗记录(EMR)来增加或消除MRI扫描中的医疗状况,这将导致ML算法的错误诊断。同样可能发生在核电厂(NPP)或智能电网中的关键设备的财务数据或运行数据。
  
  一些基于人工智能的解决方案最先进和最有前途的功能之一是能够不断学习自己的行为,我们使用它们解决问题或做出决策的方式,以及我们授予他们访问权限的外部数据源。即使这种独特的功能使AI解决方案更容易受到新型网络攻击的攻击,例如影响他们的行为,导致他们产生错误的学习数据(经验),这将导致未来的错误或有偏见的决策。这就像将人类暴露于特定的经历,目的是误导他们在某个方向上的行为。
  
  所谓的“对抗性例子”是给予AI系统的一组数据,意图误导它们并导致错误分类和错误决策。这种新型的智能数字系统黑客攻击造成了即使是最先进的深度学习系统的主要安全漏洞。这一切都是为了误导大脑或使组织的集体智慧的骨干,甚至是关键的物质资产。这可能更具灾难性,并可能造成无法弥补的损害,并在某些情况下甚至威胁到公司的存在。
  
  组织应该意识到这种新的网络威胁,并考虑新的方法和工具,用于设计,实施和保护基于AI的数字和物理系统以及它们与内部和外部交互的系统。
  
  AI系统不能有偏见。一个巨大的误解!
  
  现在最常讨论的话题之一是人工智能道德和偏见。当我们根据我们创建的规则使用人类生成的数据来训练当今的机器学习算法时,这些数据将直接反映我们思考和处理事物的方式。该数据将决定每种算法的行为。
  
  在许多情况下,例如诊断医学图像,预测设备故障或优化生产量,道德和社会偏见可能不是要解决的问题的一部分。这造成了另一种误解,即AI偏差问题在这种情况下无关紧要,使许多人错误地认为算法没有偏见。在这种情况下,许多公司都不知道ML算法可能会对组织造成高风险甚至法律负担。
  
  虽然从我们用于训练ML算法并验证其行为的数据中消除社会偏见非常重要,但公司必须了解存在不同类型的AI偏差并了解它们。
  
  例如,我们通常使用特定设备的技术数据与其他运营和环境数据相结合来训练ML算法,这些算法可以主动预测设备故障或指导我们如何提高其性能。在某些情况下,由于许多已知和未知的变量,算法偏向于预测更多故障或更少的故障导致业务的重大中断。
  
  应根据我们试图解决的问题或我们试图做出的决定来定义和识别AI偏见。
  
  我们应该开发新的方法和工具,使我们能够根据相关的业务和技术知识,使用适当的人和机器推理来暴露偏见。人工智能系统的道德规范,问责制和治理是人工智能时代领导者最重要的角色之一,他们必须主动参与自我,提供指导并提高整个组织的意识。
  
  在我们制定AI法规或政府指定的监管机构之前,公司必须确保其AI系统至少使用与他们每天运营业务相同的标准和法规。这在跨越数字和物理系统的严重AI应用中尤其重要。
  
  结论
  
  公司必须仔细创建一个全面的,动态的人工智能战略,并立即启动适当的执行计划,为人工智能驱动的许多智能事物的新时代做好准备。这种智能企业战略将有助于创建未来的新Man + Machine员工队伍并重新构想其整体业务。在来自小型新破坏者的新智能产品,解决方案或服务不仅对其业务而且对其存在构成真正威胁之前,这是迫切需要的。
  
  这将要求业务和IT领导者对现在和不久的将来人工智能能够做什么和不能做什么有一个现实和准确的看法。此外,拥有在人工智能领导这些举措的强大学术和实践经验的人将帮助组织切断炒作,避免代价高昂的误解和误导性的神话。
  
  智能不能集中,它应该是分布式的,而不仅限于少数功能区域。应该首先考虑嵌入式,边缘和集中式智能的混合和平衡方法,以保证组织的集体智慧在所有团队,功能区域,产品和服务中得到精心策划的增长。
  
  最重要的是,人工智能和其他相关技术应用于智能企业将使人力和智能机器的生产力和增强能力更加接近,从而创造出一支强大的未来员工队伍。公司应该理解人类和机器将继续成为新员工的两大支柱,并明智地计划利用他们的综合优势并理解他们在生物和人工性质方面的局限性。
  
  注意:特别感谢埃森哲Karthik P. Rao和Guruprasad B. Gudi的同事们给予他们的大力支持。
  
  Ahmed El Adl博士
  
博士 计算机科学(人工智能与机器人) 

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!

0条 [查看全部]  相关评论