发表评论取消回复
相关阅读
相关 大数据实时阶段02:Spark环境搭建-Local
2.1 基本原理 Local模式就是常用于本地开发测试,本地还分为local单线程和local-cluster多线程; 本质:启动一个JVM Process进程(一个进
相关 大数据实时阶段03:PySpark安装
从哪里下载PySpark? 首先PySpark需要从PyPi上面安装,如下URL:https://pypi.org/project/pyspark/\files !
相关 大数据实时阶段01:PySpark基础环境
1.1 Spark是什么 定义:Apache Spark是用于大规模数据(large-scala data)处理的统一(unified)分析引擎。 ![图片][f5
相关 大数据离线阶段01:Apache Zookeeper
1.Zookeeper基本知识 ZooKeeper概述 Zookeeper是一个分布式协调服务的开源框架。主要用来解决分布式集群中应用系统的一致性问题。 ![b9
相关 【Python】PySpark 数据处理 ② ( 安装 PySpark | PySpark 数据处理步骤 | 构建 PySpark 执行环境入口对象 )
文章目录 一、安装 PySpark 1、使用 pip 安装 PySpark 2、国内代理镜像 3、PyCharm 中安装 P
相关 Druid实时大数据笔记01
以下内容都是来自:《Druid实时大数据分析原理与实践》 1,做这个笔记不知道能不能坚持下去,主要是想看这本书,使用Druid做尝试了解探索一下实时数仓。 2,最近没那么多
相关 PySpark简明教程 01简介
目录 简介 原则和风格 教程的目的 本教程的优势 -------------------- 简介 简明:意思是简单而明了。 PySpark:就是用Pyth
相关 Flask01:环境基础
前言 Flask是一个使用 P\\ython 编写的轻量级 Web 应用框架。其 WSGI 工具箱采用 Werkzeug ,模板引擎则使用 Jinja2 。Flask使用
相关 大数据入门之Linux基础_01
1. Linux概述 1.1 了解Unix系统 uninx是一个强大的多用户、多任务操作系统。 与1969年在AT&T的贝尔实验室开发。 Unix
还没有评论,来说两句吧...