All Projects → liuhouer → np-flink

liuhouer / np-flink

Licence: other
flink详细学习实践

Programming Languages

java
68154 projects - #9 most used programming language

Projects that are alternatives of or similar to np-flink

Szt Bigdata
深圳地铁大数据客流分析系统🚇🚄🌟
Stars: ✭ 826 (+3076.92%)
Mutual labels:  phoenix, clickhouse, hbase, flink
Flink Learning
flink learning blog. http://www.54tianzhisheng.cn/ 含 Flink 入门、概念、原理、实战、性能调优、源码解析等内容。涉及 Flink Connector、Metrics、Library、DataStream API、Table API & SQL 等内容的学习案例,还有 Flink 落地应用的大型项目案例(PVUV、日志存储、百亿数据实时去重、监控告警)分享。欢迎大家支持我的专栏《大数据实时计算引擎 Flink 实战与性能优化》
Stars: ✭ 11,378 (+43661.54%)
Mutual labels:  clickhouse, hbase, flink
litemall-dw
基于开源Litemall电商项目的大数据项目,包含前端埋点(openresty+lua)、后端埋点;数据仓库(五层)、实时计算和用户画像。大数据平台采用CDH6.3.2(已使用vagrant+ansible脚本化),同时也包含了Azkaban的workflow。
Stars: ✭ 36 (+38.46%)
Mutual labels:  clickhouse, hbase, flink
Bigdata Interview
🎯 🌟[大数据面试题]分享自己在网络上收集的大数据相关的面试题以及自己的答案总结.目前包含Hadoop/Hive/Spark/Flink/Hbase/Kafka/Zookeeper框架的面试题知识总结
Stars: ✭ 857 (+3196.15%)
Mutual labels:  hbase, flink
God Of Bigdata
专注大数据学习面试,大数据成神之路开启。Flink/Spark/Hadoop/Hbase/Hive...
Stars: ✭ 6,008 (+23007.69%)
Mutual labels:  hbase, flink
Bigdataguide
大数据学习,从零开始学习大数据,包含大数据学习各阶段学习视频、面试资料
Stars: ✭ 817 (+3042.31%)
Mutual labels:  hbase, flink
Bdp Dataplatform
大数据生态解决方案数据平台:基于大数据、数据平台、微服务、机器学习、商城、自动化运维、DevOps、容器部署平台、数据平台采集、数据平台存储、数据平台计算、数据平台开发、数据平台应用搭建的大数据解决方案。
Stars: ✭ 456 (+1653.85%)
Mutual labels:  hbase, flink
Sparkstreaming
💥 🚀 封装sparkstreaming动态调节batch time(有数据就执行计算);🚀 支持运行过程中增删topic;🚀 封装sparkstreaming 1.6 - kafka 010 用以支持 SSL。
Stars: ✭ 179 (+588.46%)
Mutual labels:  hbase, flink
Repository
个人学习知识库涉及到数据仓库建模、实时计算、大数据、Java、算法等。
Stars: ✭ 92 (+253.85%)
Mutual labels:  hbase, flink
Flink Clickhouse Sink
Flink sink for Clickhouse
Stars: ✭ 165 (+534.62%)
Mutual labels:  clickhouse, flink
Bigdata Notes
大数据入门指南 ⭐
Stars: ✭ 10,991 (+42173.08%)
Mutual labels:  phoenix, hbase
Analytics
Simple, open-source, lightweight (< 1 KB) and privacy-friendly web analytics alternative to Google Analytics.
Stars: ✭ 9,469 (+36319.23%)
Mutual labels:  phoenix, clickhouse
phoenix
Apache Phoenix / Hbase Spring Boot Microservices
Stars: ✭ 23 (-11.54%)
Mutual labels:  phoenix, hbase
dpkb
大数据相关内容汇总,包括分布式存储引擎、分布式计算引擎、数仓建设等。关键词:Hadoop、HBase、ES、Kudu、Hive、Presto、Spark、Flink、Kylin、ClickHouse
Stars: ✭ 123 (+373.08%)
Mutual labels:  hbase, flink
Lidea
大型分布式系统实时监控平台
Stars: ✭ 28 (+7.69%)
Mutual labels:  hbase, flink
dockerfiles
Multi docker container images for main Big Data Tools. (Hadoop, Spark, Kafka, HBase, Cassandra, Zookeeper, Zeppelin, Drill, Flink, Hive, Hue, Mesos, ... )
Stars: ✭ 29 (+11.54%)
Mutual labels:  hbase, flink
flink-prometheus-example
Example setup to demonstrate Prometheus integration of Apache Flink
Stars: ✭ 69 (+165.38%)
Mutual labels:  flink
store
The elementary OS merch store website
Stars: ✭ 20 (-23.08%)
Mutual labels:  phoenix
LarkMidTable
LarkMidTable 是一站式开源的数据中台,实现中台的 基础建设,数据治理,数据开发,监控告警,数据服务,数据的可视化,实现高效赋能数据前台并提供数据服务的产品。
Stars: ✭ 873 (+3257.69%)
Mutual labels:  flink
hadoop-data-ingestion-tool
OLAP and ETL of Big Data
Stars: ✭ 17 (-34.62%)
Mutual labels:  phoenix

np-flink

flink详细学习实践

在 MacOS 上安装 Kafka

记录一下在 Mac 上安装和测试 kafka 的步骤。

MacOS 上可以方便的使用 brew 进行安装。

安装

如果还没有安装Java, 可以先安装Java: brew cask install java

然后安装zookeeper和kafka。

brew install kafka

brew install zookeeper

修改 /usr/local/etc/kafka/server.properties, 找到 listeners=PLAINTEXT://:9092 那一行,把注释取消掉。 然后修改为:

############################# Socket Server Settings ############################# # The address the socket server listens on. It will get the value returned from # java.net.InetAddress.getCanonicalHostName() if not configured. # FORMAT: # listeners = listener_name://host_name:port # EXAMPLE: # listeners = PLAINTEXT://your.host.name:9092 listeners=PLAINTEXT://localhost:9092`

启动

如果想以服务的方式启动,那么可以:

$ brew services start zookeeper

$ brew services start kafka

如果只是临时启动,可以: $ zkServer start

$ kafka-server-start /usr/local/etc/kafka/server.properties

创建Topic

$ kafka-topics --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic flink000

查看所有topic

kafka-topics --list --zookeeper localhost:2181

产生消息

$ kafka-console-producer --broker-list localhost:9092 --topic flink000

>HELLO Kafka

消费

简单方式:

$ kafka-console-consumer --bootstrap-server localhost:9092 --topic flink000 --from-beginning

如果使用消费组:

kafka-console-consumer --bootstrap-server localhost:9092 --topic flink000 --group test-consumer1 --from-beginning

Producer:消息生产者。

Broker:kafka集群中的服务器。

Topic:消息的主题,可以理解为消息的分类,kafka的数据就保存在topic。在每个broker上都可以创建多个topic。

Partition:Topic的分区,每个topic可以有多个分区,分区的作用是做负载,提高kafka的吞吐量。

Replication:每一个分区都有多个副本,副本的作用是做备胎。当主分区(Leader)故障的时候会选择一个备胎(Follower)上位,成为Leader。在kafka中默认副本的最大数量是10个,且副本的数量不能大于Broker的数量,follower和leader绝对是在不同的机器,同一机器对同一个分区也只可能存放一个副本(包括自己)。

Consumer:消息消费者。

Consumer Group:我们可以将多个消费组组成一个消费者组,在kafka的设计中同一个分区的数据只能被消费者组中的某一个消费者消费。同一个消费者组的消费者可以消费同一个topic的不同分区的数据,这也是为了提高kafka的吞吐量!

Zookeeper:kafka集群依赖zookeeper来保存集群的的元信息,来保证系统的可用性。

Note that the project description data, including the texts, logos, images, and/or trademarks, for each open source project belongs to its rightful owner. If you wish to add or remove any projects, please contact us at [email protected].