kafka启动及操作要点

本文涉及的产品
注册配置 MSE Nacos/ZooKeeper,118元/月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
简介: kafka启动及操作要点

Kafka 分区与副本 leader 做读写 follower作备份

consumer group 不能同时消费同一个分区
一个消费者可以消费多个topic
同一个组的消费者不能消费同一个分区的数据
1 cd kafka_2.12-2.2.0/
2 mkdir -p logs
3 cd config
4 vi server.properties
5 更改broker.id=0 唯一的
6 打开delete.topic.enable=true //是否能删除topic
7 log.dirs=前几步骤建立的logs //存放数据目录
8 zookeeper.connect=hadoop1:2181,hadoop2:2181,hadoop3:2181 //连接zookeeper
9 常用命令文件 在 cd bin 有启动文件 kafka-server-start.sh 停止工作文件kafka-server-stop.sh
10 与zookeeper一样一台一台的启动
11 kafka-console-consumer.sh与kafka-console-producer.sh是测试的时候用在控制台输出的
12 启动kafka过程 先启动zk

启动kafka集群每个节点执行 kafka/bin/kafka-server-start.sh kafka/config/server.properties
13 创建topic bin/kafka-topics.sh --zookeeper hadoop1:2181 --create --topic second -- artitions 3 --replication-factor 2

15 启动消费者 kafka/bin/kafka-console-consumer.sh --zookeeper hadoop1:2181 --topic first
或是 kafka/bin/kafka-console-consumer.sh --bootstrap-server hadoop1:9092 --topic first
16 查看kafka的topic有哪些bin/kafka-topics.sh --list --zookeeper hadoop1:2181
17 cd kafka_2.12-2.2.0/logs 里面有日志和分区
18 生产者生产数据 kafka/bin/kafka-console-producer.sh --broker-list hadoop1:9092 --topic first
19 查看某个Topic的详情 bin/kafka-topics.sh --zookeeper hadoop1:2181 --describe --topic first
Isr列是谁跟leader的
21 删除topic bin/kafka-topics.sh --delete --zookeeper hadoop1:2181 --topic first(topic名字
20 kafka副本的数据是主动去leader中去拉
副本数一定要小于broker节点数
当往一个不存在的topic里面写数据是,它会自动创建一个topic 分区和副本数根据config文件的配置决定

Producer写入方式:producer采用推push模式将详细发送到broker,每条消息都被追加append到分区partition中,属于顺序写磁盘 顺序写磁盘效率比随机些内存要高,保障kafka吞吐率
分区内有序
生产者往里写数据 有三个ack应答机制 0 1 all三个状态保证数据不丢失就用all
消费者的分区数与消费者组的消费者数相同
分区内部偏移量自己维护自己
消费者读取数据一个分区一个分区的读取,完全读取完一个在读取其他分区

相关文章
|
6月前
|
消息中间件 Java 关系型数据库
实时计算 Flink版操作报错合集之从 PostgreSQL 读取数据并写入 Kafka 时,遇到 "initial slot snapshot too large" 的错误,该怎么办
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
1015 0
|
5月前
|
消息中间件 Kafka 数据处理
实时计算 Flink版操作报错合集之使用kafka connector时,报错:java.lang.ClassNotFoundException,是什么原因
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
6月前
|
消息中间件 Java Kafka
kafka 磁盘扩容与数据均衡操作代码
Kafka 的磁盘扩容和数据均衡是与保证Kafka集群可用性和性能相关的两个重要方面。在 Kafka 中,分区数据的存储和平衡对集群的运行至关重要。以下是有关Kafka磁盘扩容和数据均衡的一些建议
61 1
|
6月前
|
消息中间件 Kafka
KafKa脚本操作
KafKa脚本操作
|
7月前
|
消息中间件 关系型数据库 MySQL
实时计算 Flink版操作报错合集之遇到报错:Apache Kafka Connect错误如何解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
220 5
|
7月前
|
消息中间件 Kafka 数据库连接
实时计算 Flink版操作报错合集之无法将消费到的偏移量提交到Kafka如何解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
124 3
|
7月前
|
网络安全 流计算 Python
实时计算 Flink版操作报错合集之Flink sql-client 针对kafka的protobuf格式数据建表,报错:java.lang.ClassNotFoundException 如何解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
132 1
|
6月前
|
消息中间件 JSON Kafka
实时计算 Flink版操作报错合集之kafka源表没有指定group.id,遇到报错,该怎么解决
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
118 0
|
7月前
|
消息中间件 关系型数据库 网络安全
实时计算 Flink版操作报错合集之Flink sql-client 针对kafka的protobuf格式数据建表,报错:java.lang.ClassNotFoundException 如何解决
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
231 1
|
7月前
|
消息中间件 数据采集 SQL
DataWorks操作报错合集之通过dataworks把表数据发送到kafka,表字段全是string类型如何解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。