Spark初由美国加州伯克利大学的AMP实验室于2009年开发,是基于内存计算的大数据并行计算框架大数据
什么是Spark?ApacheSpark是一个围绕速度、易用性和复杂分析构建的大数据处理框架。初在2009年由加州大学伯克利分校的AMPLab开发,并于2010年成为Apache的开源项目之
spark模块包括spark源码分析、编程、RDD、开发环境搭建、部署、spark sql讲解等知识, 是spark入门部署、编程