您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[impact.com]:内部人士指南 : AI 与机器学习 - 发现报告
当前位置:首页/行业研究/报告详情/

内部人士指南 : AI 与机器学习

内部人士指南 : AI 与机器学习

内幕指南AI 和机器学习人工智能是所有行业问题的解决方案吗 ?11 月//2018在与 感谢我们的贡献者朱莉娅 · 史密斯APAC EMEA 通讯总监影响罗里 · 莱瑟姆库存主管GroupM斯图尔特 · 霍尔产品开发管理合伙人GroupMLauren Coppin全球受众解决方案负责人AdformWill Leuchars销售总监越来越多安东尼 · 克莱门茨管理合伙人连接路径汤姆 · 阿姆斯特朗Associate Account Executive影响Sander Siezen产品开发主管现在说吧Filip Petru运营总监WhiteBULLET主持人Eoin O 'NeillCTO拖船查理 · 吉百利CEO现在说吧Mustafa Mirreh高级数字记者性能performancein. com / / 人工智能是所有行业问题的解决方案吗 ? 03 前言2018 年 10 月 , Impact and PerformanceIN 举办了一次关于人工智能 ( AI ) 的圆桌会议 , 并聚集了业内一些最聪明的人 , 讨论 AI 是否兑现了所有关于它的承诺。首要主题似乎是机器学习提出了伟大的概念 , 但它例如 , 如果我们看看亚马逊 , 我们可以看到人工智能如何加强其购物业务的令人印象深刻的蓝图 , 但许多公司根本没有利用人工智能可以提供的真正潜力。对于代理商来说 , 创意应该考虑到机器学习。这将改善整个生产过程 , 直到交付 , 并在每个阶段增加影响。但是 , 广告商及其代理商比算法更了解他们的品牌。因此 , 尽管人工智能可以找到人类无法找到的模式 , 但创意过程中的人为因素需要保持人类主导。联盟营销行业的机器学习需要手动制定流程。人工智能将使交易更快,更有效地利用数据。然而,尽管我们知道自动化是成功的,但它可能会产生比解决更多的问题。有人提出的一个问题是政府将如何监管人工智能。如果我们去掉谷歌和亚马逊的封闭黑匣子,那么所有的算法看起来都一样,但如果封闭的黑匣子仍然存在,我们就会面临缺乏信任和透明度的问题。在接下来的三个功能中 , PerformanceIN 将分享 Impact 的想法以及参加圆桌会议的主要机构 , 品牌和技术合作伙伴。该补充将提供有关 AI 和机器学习所有事物的好 , 坏和丑陋的真实真相。Florian Gramshammer, MD EMEA, Impact联系 Impact联系人和广告内容查询 : content @ performancein. com广告查询 : advertising @ performancein. com邮政地址: PerformanceIN, 1 Victoria StreetBristol, BS1 6AA, 英国ContentsAI 是像算法一样简单还是更复杂 ?06 人工智能的缺点 : 欺骗制度和监管08 AI 创新和引领行业前进10 问答 : AI 的未来会怎样 ?© 2018 - 保留所有权利。未经书面许可 , 严禁全部或部分复制。带给你的Mustafa Mirreh高级数字记者 , PerformanceINJoele Forrester数字记者 , PerformanceIN乔纳森 · 丘布高级设计师 , 性能马克 · 阿瑟顿销售经理 , 业绩 04performancein. com / / 人工智能是所有行业的解决方案有问题吗 ?performancein. com / / 人工智能是所有行业问题的解决方案吗 ? 05AI 是像算法一样简单还是更复杂 ?似乎是当下的流行语 , 人们质疑它的未来 , 它实际上是什么 , 并表达了对其复杂性的担忧 ,这一切都取决于算法和良好的数学 , 还是更复杂的东西 ?类似于人类。销售总监 Will Leuchars 评论说 : “在我们使用的监督学习领域中 , 它是关于训练一个基于人类引导的输入输出对的系统 , 该系统可以从中学习 , 然后在将来进行自我训练。 ”“我们需要人类 , 因为我们需要提供这些输入输出对 , 以训练系统以及适当数量的示例数据。 ”虽然 , 如果你拿走了人类可能的界限 , 比如例如 , 睡觉和吃饭 , 并且您有不断学习的东西 , 它能够通过从示例数据中学习来成为执行该任务的专家。随着计算机掌握更多任务 , 人们担心人工智能与人类竞争 , 导致问题进一步恶化。例如 , Facebook 正在开发一个人工智能系统人工智能的现实没有一些人 — — 尤其是媒体和娱乐业 — — 想象的那么戏剧性。信不信由你,人工智能已经发展了很长时间 ; 它并没有突然发生,但软件最近变得更加智能。随着 AI 系统变得越来越强大,它们引起了更多的审查,围绕 AI 进步的 “炒作 ” 和“ 嗡嗡声 ” 也引起了人们的质疑 - 它是像算法一样简单还是更简单 ?超过一个单一的算法 ?围绕人工智能的奇点存在一些误解和担忧 , 例如 , 语言是如何发展的 , 它的记忆是如何工作的 , 它是如何处理信息的 ? 基于这样的观点 , 人工智能被视为一种传统的单一算法 , 它是使用聪明的数学和逻辑产生的 , 使它能够模拟智能行为并给你输出。在很大程度上 , “人工智能可以是一种简单的算法 , 但它也可以包含机器学习和深度学习 , ” 全球受众解决方案负责人 Lauren Coppin 说Adform; “AI 更加复杂 , 因为它通过从数据和处理的信息中识别模式来学习。然后 , 它模仿人类的智能行为 , 只需要最少的指导。这就是将“ AI 炒作 ” 带到最前沿的原因 , 并表明机器学习何时负责工作。 ”机器学习涉及训练计算机根据数据示例执行任务,而不是依靠人类的输入,因此有能力 “学习 ” 新行为,而不会被明确告知应该是什么。这意味着机器学习只不过是一类预先存在的计算算法。然后,还有深度人工神经网络,这是一组算法,在许多问题的准确性方面创造了新的记录,包括检测医疗保健部门的疾病。当涉及到深度学习 - 可以是监督的 , 半监督的或无监督的 - 它变得不可预测 , 因为你无法想象会发生什么。这赋予了机器新的权力 , 也赋予了如果人类不干预就会失败的能力。Tug 的首席技术官 Eoin O 'Neill 表示 : “被描述为算法现在被描述为机器学习 - 它是人类拥有最终控制权的一组参数。人的元素有了如此庞大的数据集 , 即使是简单的算法也可以在预测任务中胜过专家的人类判断。劳伦 · 科平解释说 , 人工智能比我们想象的更人性化 , 尽管人们担心越来越智能的系统对人类在工作场所及其他领域的未来意味着什么 , 但实际上 , 人工智能仍然需要人工干预。Say it Now 产品开发主管 Sanders Siezen 表示同意 , 并补充说 : “如果不需要人为干预 , 并且它本身会发生变化 , 那么您正在实施 AI , 而不仅仅是做出明智的决定。 ”随着人工智能的发展 , 制造更智能的机器的策略也会随着时间的推移变得更好。就像人类一样 , 我们发现我们擅长某事 , 然后成为我们领域的专家。有了监督学习 , 人工智能可以成为完成一项任务的专家 ,创建了自己的语言 , 当研究人员意识到 AI 不再使用英语时 , 迫使他们关闭了系统 , 但实际上已经发展出一种重新设计的英语版本 , 以更好地解决他们的任务。在某些情况下 , 交流似乎毫无意义 , 但却被其他 AI 技术所理解 , 从而导致 AI 语言压倒了创建它们的计算机系统的危险。随着数据量的不断增长 , 深度学习推动了复杂算法的自动创建 , 很明显 , 人工智能不仅仅是好的数学和聪明的学习。我们可以肯定的是 , 我们才刚刚开始发现它的全部功能。作者 : Joele Forrester :我们确实知道我们才刚刚开始发现它的全部能力。AI" 06performancein. com / / 人工智能是所有行业问题的解决方案吗 ? 07AI 的缺点欺骗制度和法规在发现公司欺骗系统后 , 人工智能的风险已经成为人们关注的焦点 , 无监督的人工智能已经呼吁监管受到质疑。公司正在投资人工智能 , 它已经改变了我们的生活方式。虽然该技术在各个领域以积极的方式进步和重塑 , 但它也在加深和放大行业某些部分的不良参与者的行为。当涉及到信任、黑客和无监督的机器学习时 , 人工智能可能会带来巨大的影响 ; 但我们什么时候应该干预呢 ?欺骗系统复杂的、可破解的算法和无监督的人工智能带来了欺骗系统的风险。你开始输入的数据点和变量越多,入侵他们的环境和算法在他们的程序中发现漏洞的风险就越大。如果算法从大量图像中学习,则可以从这些图像中学习并欺骗系统。我们还没有看到人工智能能够处理大量的数据集,而不会有被破坏的风险。这就是为什么该行业正在努力防御它。它不仅带来了信任问题 , 而且系统的游戏可能会带来巨大的财务成本。亚马逊是公司如何利用人工智能建立业务的绝佳例子。亚马逊完善了建议 , 甚至完善了客户体验。但是 , 由于如此强大和很少的监管 , 科技巨头有可能迅速毁掉较小的公司。例如 , 当您在亚马逊中搜索 “智能手表 ” 时 , Fitbit 是排名的搜索结果之一 , 但中国公司学会了如何玩弄亚马逊系统的经验教训,他们的所有结果都是最先出现的,立即推动 Fitbit 的销售额在一夜之间下降,因为它的结果没有出现在第一页上。Fitbit 可以自救的唯一方法是通过付费广告,这就引出了一个问题,即这是否是一家将直接从中获利的公司设计的计划。发生这种情况的故事很常见,并导致消费者的信任受到损害。谷歌是一家科技巨头,在他们神秘、复杂的机器学习系统中引入了一个元素,这显然导致其一家高支出、知名的比较搜索广告商 24 小时内没有搜索结果出现。这种对系统的操纵给公司造成了巨大的流量损失,谷歌暂时无能为力。事实证明,这是这项技术的一个小故障,最终不在谷歌的控制范围之内,但它表明机器学习 — — 当它出错时 — — 会对广告商产生不利影响。然而,更令人担忧的是,当人工智能出错时,人类有失去控制的风险。尽管人工智能应该永远是可控的 , 但它并不总是可以理解的。因此 , 人为干预足够吗 ? 令人担忧的是 , 人工智能算法的预测可能太复杂 , 人类无法理解 , 我们可能不再能够保持人工智能系统的一致性。实施法规随着这样的问题的出现 , 人们呼吁实施更多的监管和政府围绕人工智能的控制。目前 , 英国政府对人工智能知之甚少 , 无法认真对待。但是当它失败时 , 谁来负责 ?“从有机搜索的角度来看 , Google 不一定要承担任何责任 , 因为它为广告客户提供了流量。但是 , 从付费搜索的角度来看 , 它们扮演着重要的角色 , 并且有责任确保其 24 / 7 工作。 ” Tug 首席技术官 Eoin O 'Neill 说。“虽然监管通常被认为会阻碍创新并减缓发展,但英国政府至少提出了正确的问题。作为一个行业,如果我们能够为他们提供正确的答案,他们将增加他们对能力的理解,但也知道什么时候是干预监管的合适时机,“GropM 产品开发执行合伙人 Start Hall 评论道。霍尔认为 , 当它影响个人的福祉时 , 也就是监管最重要的时候。“我们需要成为科技公司推出可能真正对公民福祉产生负面影响的产品的方式。如果对这些公司或产品没有民主或监管的控制 , 这显然会对社会构成真正的风险 , ” 霍尔说。“这是我们应该竞相解决的要点之一 , 因为正如你所想象的那样 , 机器学习有多种积极的用途 , 可以提供基本的服务。例如 , 市场上的医疗保健 AI 解决方案提供了GroupM 库存主管 Rory Latham 补充说 : “如果没有机器学习 , 除非我们有 24 / 7 的护理 , 否则这是不可能的。 ”信任和保证这些问题随之而来的是缺乏信任和公众关注的增加。这可能会导致该行业因 “黑匣子机器学习 ” 元素而受到不良声誉的损害,并将媒体支出的生成和优化放在首位。最终,我们的透明度是有限的。当人工智能做出决定时,它的最终用户不知道它是如何到达