【Spark Summit East 2017】企业如何通过Spark挤入人工智能快车道

简介: 本讲义出自Mike Gualtieri在Spark Summit East 2017上的演讲,主要分享了企业如何充分利用Spark在人工智能的研究中取得一席之地,以及人工智能如何帮助企业优化产品的用户体验。

更多精彩内容参见云栖社区大数据频道https://yq.aliyun.com/big-data;此外,通过Maxcompute及其配套产品,低廉的大数据分析仅需几步,详情访问https://www.aliyun.com/product/odps

本讲义出自Mike Gualtieri在Spark Summit East 2017上的演讲,主要分享了企业如何充分利用Spark在人工智能的研究中取得一席之地,以及人工智能如何帮助企业优化产品的用户体验。


对于企业而言,用户体验和产品的创新性是应该考虑的首要问题。对于用户体验而言,客户希望企业就像老朋友一样了解他们。为了满足所谓的超人际用户体验,产品必须能够学习、预测和适应。为了使得产品能够实现以上的需求,就需要人工智能。目前而言,在人工智能方面进行投资的企业都希望能够在用户体验以及业务模型等方面获得利益。


而人工智能的发展经历了很多个阶段,所谓PureAI,也就是纯人工智能希望能够模仿人类的智能,而企业则希望使用PragmaticAI,也就是实用性人工智能为技术添砖加瓦,帮助产品或者应用更具有智能性。


而机器学习则被数据分析专家用于预测概率性的模型,深度学习则需要构建更加精确的模型。而Spark正是为了速度、大规模、分布式机器学习以及深度学习而设计的,并且目前已经拥有了非常活跃的生态系统。


44d0f7899e3d5b01142c9d14712b7479d5ea7275

5591eabcc561f2694be60aefc760266751f027f3

4f836c62e465e1996aa0beece426c577e98e7550

b1a5a33c1d139c9683bfa65888499cfdb0cd001c

877dc5a51d3d9e2b8188e1f42e45a8b3ef0f2821

2763f5a4084580c1de6f4c0d9a2d55df9bc2e68a

13a2bc2e205ebb91b6f31ce05ceda07210000720

91145bd8d978803b4096f963efeddf32d7c5ce80

35986390455292800c4b5e98e2c4301914772da0

872e27b105ce665349b291b8e4fbd79fea722493

c8f27350ab7fe02d614426551f5bbd6b113a1efc



245ae1d39e0b974ec112bbb1aac4ae56f6402ab9

b678cf51492fca4ac13b5fd6089de49bfc38d9d8

79a12cfce92f626d667b3584b5172ebf6ba68e3b

a96cc35657ded7011fe6c2d21138cc04bb104137



6bb1e024f634470b12b0d3e1c8f70481e0d378c3

0238098fb422c2e7d6b16564ad23f0a56541c91c

f85ad3397b12a394a6fe5fe1fe9c271e1ddcaa3d

728f82c0dbbf284191c5cb054208d4571769ba98

e0556122c5fbd755456c958baeca276590ec4375

2913873566141346a0f7ce38544e9858b42574c1

0e60f711ad5cf0b39c528289097f83c3366b08dd

81b0d210a13b46881d3152103a3a8e352edb8a2a

c612a6a650f4cd18fe95d9ffab40a07b2205bcde

370b23effc950ab91fc7f643a40b332def865b01

f7d8b027ffa4acdb324e12730822f8fc980de23e

ee3e2fcd9a45b43dbd0e48e7a87f1bd51d6dc144

c12b7a262963efcf711c9c483524523438648d44

c0a030285d83d3a048920fa337d5cb309b8d1934

571ed3f2b0a318994d5acd84bf9db0d13b654ae8

fade5e9c0bb4a78309ee722c48e1a060933a1bcf

0de11f5f57a540d5a87e36a542db5094cd7c4be6

b8c847e2e8e2392122e53b3653012c6ad1293f66

b228cec50246f36b5d6585a1559104166363df01

bdf6bdb99e43f3a768a9e6457b81ad82be2fb0f1

fc263c7e970b302d73cd44616c8afba08142ad4f

c7b27eca54c7443af6633b716fc17e12cae77515

b2ffbf6b985313e947986135629cf20a404fc3e6

8121c2b7c3a66798e57fd46dfbee075f497e311d

126ec44b8d5d5fa90d41ef5090b647f9f0534f1e

635fef74e5e111764d8def659644b3e2fae1fe20

351bf1cda965ec7bbac88d29a351403870d86e3d

3f02eaa7f9b4c9f9ba6a3bff675f1ccdf44dc5a0

c165012ab27a35fd314a3d7578d4ad8c3ac4122a

ef42e1ac6323df998ad4aa8a588a169e8c491678

5869cbae52d2786e33f51c47b9b9837fcce8f069

68318a57fc0b37c5d08d357249c589f812cb6244

3ba4b6633aaed239f648ba7d6fa658b89ec2224a

7d53e9e07a399d2e9359e8b6fe08153777a4bc72

9abc31ae34581c7c98dc67fae5b46d005dc7a4eb

ca218ae852da1aff88666337ad1911894a539337

c31a9398c4df92e7717e0d98c82e4f0dbb5dd700

b5228474de32cc521f5d54f9b93ad81fc3d23ad6

4c891bbff4fd5412521d884773b3819122d6cb73

eb9295e4633552a9f2289f86971773f9161624af

85c6dd38a71a1210cd7cd1785d9304481d884000

a62cbabf2ce3c59bc5906ead92b4f2a8211e6804

415e26a3baf4779e55e5afe1c77e63e694671eaa

062da9760bebfe5577bbcc40cbf6a3e8504d882e

840a514568e63d23f186bbd89a20c7d8b925e937

94e5de9521b7fcc7c441015d0a10564e73c1a98f

978e659b009adb829c8af03c0f9b13ded852daa3

7e85c3da92178a211c91383576aca9f04d767586

6c3fa383261e211b6f208e45a1ea553f146f0e94

相关文章
|
11月前
|
分布式计算 数据可视化 大数据
基于Spark的企业订单数据分析
基于Spark的企业订单数据分析
|
存储 SQL 分布式计算
阿里云云原生数据湖分析DLA Serverless Spark重磅发布,助力企业低成本挖掘OSS数据价值
由于解决了用户当前遇到的数据分散、复杂、难管理的问题,数据湖方案越来越深入人心,阿里云DLA产品提供了一体化解决方案,从数据湖管理到数据湖分析和计算。相对于在线引擎,Spark更适合弹性计算架构,可以跟云原生的弹性能力深度整合起来。从传统IDC到搬站上云到完全Serverless化,这条路径已经被越来越被认可为云技术的发展路径。DLA Spark采用完全云原生 + Serverless形式,相对于传统的自建Hadoop在性价比方面拥有数倍的优势。
3341 0
阿里云云原生数据湖分析DLA Serverless Spark重磅发布,助力企业低成本挖掘OSS数据价值
|
人工智能 分布式计算 Spark
SPARK + AI SUMMIT 2020 中文精华版线上峰会材料
SPARK + AI SUMMIT 2020 中文精华版线上峰会材料
SPARK + AI SUMMIT 2020 中文精华版线上峰会材料
|
机器学习/深度学习 人工智能 分布式计算
SPARK + AI SUMMIT 2020 中文精华版线上峰会—7月5日议题
SPARK + AI SUMMIT 2020 中文精华版线上峰会—7月5日议题介绍
SPARK + AI SUMMIT 2020 中文精华版线上峰会—7月5日议题
|
分布式计算 Prometheus Kubernetes
SPARK + AI SUMMIT 2020 中文精华版线上峰会—7月4日上午议题
SPARK + AI SUMMIT 2020 中文精华版线上峰会—7月4日上午议题发布
SPARK + AI SUMMIT 2020 中文精华版线上峰会—7月4日上午议题
|
SQL 人工智能 缓存
Spark 10年,作者 Matei 在 Spark + AI Summit 2020 上深情回顾,Photon 引擎首次曝光
在Spark + AI Summit 2020上, Matei 先生的keynote对 Spark 10 年做了非常精彩的演讲和深情的回顾。SparkSQL 重回巅峰,在性能上大幅超越 Presto。在过去几年,我们见过了太多的 benchmark,大家都在纷纷超越 Spark。Spark 3.0 这一进展可以说大大提振了大家对 Spark 的信心,可谓及时雨。
Spark 10年,作者 Matei 在 Spark + AI Summit 2020 上深情回顾,Photon 引擎首次曝光
|
人工智能 分布式计算 大数据
Spark + AI Summit 2020 中文议题有奖征集
北美 Spark + AI Summit 2020 盛会在即,Apache Spark 中国技术交流社区在此诚邀各位,代表国内开发者选择您最希望听到的主题,届时社区将联合国内顶尖技术专家一一展开中文形式分享。
Spark + AI Summit 2020 中文议题有奖征集
|
3月前
|
机器学习/深度学习 SQL 分布式计算
Apache Spark 的基本概念和在大数据分析中的应用
介绍 Apache Spark 的基本概念和在大数据分析中的应用
157 0
|
8天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。

热门文章

最新文章