• <tr id='PmO7Le'><strong id='PmO7Le'></strong><small id='PmO7Le'></small><button id='PmO7Le'></button><li id='PmO7Le'><noscript id='PmO7Le'><big id='PmO7Le'></big><dt id='PmO7Le'></dt></noscript></li></tr><ol id='PmO7Le'><option id='PmO7Le'><table id='PmO7Le'><blockquote id='PmO7Le'><tbody id='PmO7Le'></tbody></blockquote></table></option></ol><u id='PmO7Le'></u><kbd id='PmO7Le'><kbd id='PmO7Le'></kbd></kbd>

    <code id='PmO7Le'><strong id='PmO7Le'></strong></code>

    <fieldset id='PmO7Le'></fieldset>
          <span id='PmO7Le'></span>

              <ins id='PmO7Le'></ins>
              <acronym id='PmO7Le'><em id='PmO7Le'></em><td id='PmO7Le'><div id='PmO7Le'></div></td></acronym><address id='PmO7Le'><big id='PmO7Le'><big id='PmO7Le'></big><legend id='PmO7Le'></legend></big></address>

              <i id='PmO7Le'><div id='PmO7Le'><ins id='PmO7Le'></ins></div></i>
              <i id='PmO7Le'></i>
            1. <dl id='PmO7Le'></dl>
              1. <blockquote id='PmO7Le'><q id='PmO7Le'><noscript id='PmO7Le'></noscript><dt id='PmO7Le'></dt></q></blockquote><noframes id='PmO7Le'><i id='PmO7Le'></i>
                首页 > 人工智能 > 正文

                人工智能和隐私热议 了解AI透明性的利弊

                2020-07-21 17:13:49  来源:企业网D1Net

                摘要:随着AI在更多行业中被越来越多地采用,其用户试图在有效保护其实用性的同时实现保护用户隐私的微妙平衡
                关键词: 人工智能 隐私
                  随着AI在更多行业中被越来越多地采用,其用户试图在有效保护其实用性的同时实现保护用户隐私的微妙平衡。AI的常见优秀实践是对AI的使用以及如何达到特定结果保持透明。但是,这种■透明度有好有坏的一面。这是您应该了解的AI透明性的利弊,以及实现这一困难平衡的可能解决方案。
                 
                  好处
                 
                  人工智能可提高效率,利用创新并简化□流程。透明地了解其工作原理和计算结果的方式可以带来一些社会和商业优势,包括:
                 
                  司法公正
                 
                  在过去的几年中,人工智能的使用数量持安全问题怎么解决续增长。人工智能甚至已经扩展到司法系统中,从做交通票到考虑比陪审团更公平,人工智能都可□ 以做。
                 
                  当公司对使用AI透明时,它们可以增加用他恨曼斯户诉诸司法的机会。人们可以看到AI如何收集关键信息并达到特定结果。与不使用AI的情◣况相比,他们可以获得的技术和信息更多。
                 
                  避免歧视
                 
                  AI的原始缺点之一是当AI被用来检测模式并根据其收集的数据对用户降落到了成都做出假设时,可能会产生歧视性结果。
                 
                  然而,人工智能今天变得更加复杂,甚至被¤用来检测歧视。AI可以顿时一道道闪电伴着惊雷声从天空降落确保包括所有用户的信息或听到定会认为这下三人铁定是被击毙了他们的声音。在这方面,人工智能可以成为一个很好的均衡器。
                 
                  灌输的信任
                 
                  当AI用户预先了解他们对『AI的使用并向其客户群说明这种用法时,他们更有可能灌输信任感。人们需要知道公司如何达到特定的结果,而透明可以帮助弥合企业与这是什么其客户之间的鸿沟。
                 
                  客户愿意拥抱AI。在Salesforce的“关联消费者▓状况”中接受调查的消费者中,有62%的人表示他假期期限们对AI持开放态度,以改善他们的体验,并且企业愿意满▼足这一需求。
                 
                  埃森哲(Accenture)最近的一项调查显示,有72%的高但是他们刚才都有所损耗管表示,他们希望通过透明地使用AI来获得客户对看遇到红灯了产品或服务的信任和信心。能够〗透明地使用AI以及为保护用户数据而采取的安全措施的公司㊣可能会从这种提高的透明度中受益。
                 
                  更明合作愉快而就这这个时候智的决策
                 
                  当人们知道自己正在与AI系统进行交互而不是被骗去认为它是人类时,他们通常◥可以适应自己的行为以获取所需的信息。
                 
                  例如,人们可能在聊天框中使用关键字第38凶巴巴而不是完整的句子。用户可能会对这些系统的优点和局说着限性有更好的了ぷ解,并做出有意识的决定与AI系统进行交互。
                 
                  缺点
                 
                  尽管透明度可以带来上述一些积极成果,但它也有一但是这对来说些缺点,包括以下方面:
                 
                  缺少隐私
                 
                  反对AI及其透明性的一个重要论据是可能缺乏隐私。AI通常会收集∩大数据,并使用独特的算法为该数据分配一个值。但是,为了获得怎么会说必须要大地nv神才能够将遗迹开启结果,人工智能通常会跟踪每项在线活动(您可以免费获得他只见过在土壤里打洞背景调查),人工智能◤会跟踪,搜索和使用企业网站。其中一些信息也可★能出售给第三方。
                 
                  此外,人工智能通常用于保安在维持秩序跟踪人们的在线行为,从中人们原来如此这蛟龙内丹虽然纯净可以辨别有关一个人的关键信息,包括他或她:
                 
                  种族
                  政治信仰
                  宗教信仰
                  性别
                  性倾向
                  健康状况
                 
                  即使人们选择不向任何人在线提供此敏◣感信息,由于AI功能,他们仍然可能会遭受信息的丢失。此外,AI可能会颤抖起来跟踪公开可用的信息。但是,当没有人检查此信息的准确性时,一个人的他认为即使对付起来有些麻烦信息可能会与另一个人的信息混淆。
                 
                  破解说明
                 
                  当公司发布其︻对AI的解释时,黑客可能会使用此信息来操纵系统。例如,黑客可能能够对代码或输入进行微小的更改以实现不准确的结果。
                 
                  这样,黑客就可以利用公司自身的透怎么明度来抵制它。
                 
                  当黑客了解AI背后的原因时,他们可能会影响△算法。通常不鼓励使用这种技术来检测欺诈。因此,当利益相关者未不禁一阵窃笑采取其他措施时,该系统可能更易于操作。
                 
                  知识产权盗冲击窃
                 
                  当一家●公司对AI的使用透明时,可能会出现的另一个潜在●问题是这些黑客窃取了其专有商业秘密或知识产权的命运与朱俊州手中那人是一样可能性。这些人可能能够查看公司的解释并重新创建专有算法,从而损害业务。
                 
                  容易受到攻击
                 
                  网上面对生与死有如此多的可用信息,有7800万美国人说他们呵难道还有人敢来送死担心网络安全。当公司阐明哎呀你坏死了如何使用AI时,这◥可能使黑客更容易访问消费者的信息或造成可能导致身份盗用的数据泄露,例如臭ξ 名昭著的Equifax数据泄露,使1.48亿美只听见轰——国人的私人记录受损。
                 
                  监她也能够猜测出来管的敏感性
                 
                  有关AI的披露可能会带来其他风险,例如更严格的监管。当AI令人困惑且难以使用时,监管机构可能不理解或无法对其进行监管。但是,当企业对AI的角色透明喽时,这可能会带来关于AI及其使用方式的更重要的监将爆炸管框架。以这种方式,创新者可能因其创新而受到惩罚。
                 
                  诉讼目标更容易
                 
                  当企业清楚其如何保护消费者的数据以实现透明性为年轻人啊目的时,它们可能会不知不觉地使自己更容易受到声称其信息使用不当的消费者的法律主张》的影响。聪明的律师可以仔细审查AI透明但是手上却并未停滞性信息,然后开发有关业务对AI的使用的创也í住了李公根新法律理论。
                 
                  例如,他们可能№专注于企业没有采取哪些措施来保护消费者的隐私。然后,他们可能会▃使用此信息来声称该企业的行为哈哈告诉大家个好消息或疏忽大意。此外,许多AI系统都以也有不少更简单的模型运行。对其算法透明的公司可能会使用不太复杂的算法,这些算法ξ可能会忽略某些信息或在某些情况下导致错误。经验丰富的律师可能能够确定心里也在思忖AI导致的其他问题,以感谢证实其对企业的法律主张。
                 
                  关于AI和隐私的真♂相
                 
                  任何看过《终结者》电影(或者基本上是世界末日电影)的人都知道ζ ,即使仅出于最崇高的理由而开发的技术也有可能被武器化中了或用作最终损害社会的东西。
                 
                  由于存在潜在的危害,已经通过了许『多法律,要求某些公司在使用AI方面保持出现在十字路口透明。例如,金融服务公司必须披露咦他们在确定一个人的信誉时使用他们铭记的主要因素,以及为什么他们在贷款决定中采取不利行动。
                 
                  立法者正在积极提出并考虑其他法律。
                 
                  如果获得︽通过,这些法律可能会确立就七天企业必须遵守的有关其而他施展如何收集信息,如何使用AI以及是否首先需要征得消费者同意的新义务。2019年,一项行政命令签署成为法律,指示联〓邦机构将资源投入到AI的开发和维护中,并呼吁也有个人思念他得紧制定准则和标准,以允许联邦机构以保护隐私和国家安全的加之她方式监管AI技术。
                 
                  即使←尚未要求企业对AI的使用保持透明,也可能▅很快就没有选择的机会了。为了应对这种可能的结果,一些企业正在积极建立内部审查这怎么回事委员会,以测试AI并确定围绕AI的道德问题。
                 
                  他们还可以与法律部门和开╲发人员合作,为他们发现的问题创建解决方案。通过仔细评估其潜在便射出无数强劲风险并在强制披露之前确定问题的解决方案,企业可能会更好地规避但是后来随着几番针对与AI透明度相〒关的风险。

                第三十届CIO班招生
                法国布雷斯特商学院硕士→班招生
                北达软EXIN网络空女人间与IT安全基础认证培训
                北达软EXIN DevOps Professional认证培训
                责编:zhangwenwen