Các Tham Số Quan Trọng Cần Biết Khi Cấu Hình Kafka

KiloKilo
16 min read

Các Tham Số Quan Trọng Cần Biết Khi Cấu Hình Kafka Broker

Kafka là một nền tảng phân tán mạnh mẽ, giúp xử lý hàng tỷ sự kiện mỗi ngày trong các ứng dụng lớn. Để tối ưu hóa hiệu suất của Kafka, điều chỉnh các tham số quan trọng của Kafka Broker là điều cần thiết. Trong bài viết này, chúng ta sẽ cùng nhau tìm hiểu các tham số quan trọng trong Kafka Broker và cách chúng ảnh hưởng đến hiệu suất của hệ thống.

1. broker.id – Nhận Diện Broker Duy Nhất

Mỗi broker trong một Kafka cluster cần có một broker.id duy nhất để nhận diện. Tham số này đặc biệt quan trọng khi triển khai nhiều broker trong cùng một cluster. Nó giúp phân biệt broker với nhau và quản lý phân vùng (partition) một cách hiệu quả.

2. log.dirs – Quản Lý Lưu Trữ Dữ Liệu

Tham số này xác định thư mục nơi Kafka lưu trữ các dữ liệu phân vùng (partition) của topic. Việc chỉ định nhiều thư mục trong cấu hình có thể cải thiện khả năng chịu lỗi (fault tolerance) và cân bằng tải giữa các ổ đĩa. Nếu một thư mục bị lỗi, Kafka vẫn có thể hoạt động bình thường dựa trên các thư mục còn lại.

3. zookeeper.connect – Kết Nối Đến Zookeeper

Zookeeper đóng vai trò quan trọng trong việc điều phối Kafka cluster. Tham số zookeeper.connect là nơi bạn chỉ định địa chỉ của Zookeeper, cho phép Kafka kết nối và nhận metadata cần thiết để điều phối các broker và partitions.

4. num.network.threadsnum.io.threads – Tăng Khả Năng Xử Lý

Hai tham số này ảnh hưởng đến khả năng xử lý yêu cầu của Kafka. num.network.threads xác định số lượng luồng xử lý kết nối mạng, trong khi num.io.threads kiểm soát số luồng dành cho tác vụ I/O. Điều chỉnh số lượng luồng hợp lý sẽ cải thiện hiệu suất xử lý dữ liệu, đặc biệt khi Kafka phải xử lý một lượng lớn kết nối và dữ liệu.

5. log.retention.hourslog.retention.bytes – Quản Lý Thời Gian Lưu Trữ

Kafka cho phép bạn quyết định thời gian dữ liệu sẽ được lưu trữ trong broker thông qua hai tham số này. log.retention.hours quy định thời gian lưu trữ dữ liệu dựa trên giờ, trong khi log.retention.bytes quy định kích thước dữ liệu tối đa mà broker lưu trữ. Sau khi vượt quá ngưỡng này, Kafka sẽ tự động xóa dữ liệu cũ để giải phóng dung lượng.

6. replica.fetch.max.bytes – Đồng Bộ Dữ Liệu Giữa Các Replica

Trong hệ thống phân tán của Kafka, các replica đóng vai trò quan trọng trong việc đảm bảo tính sẵn sàng và độ tin cậy của dữ liệu. Tham số replica.fetch.max.bytes điều chỉnh kích thước dữ liệu mà một replica có thể nhận từ leader trong mỗi lần fetch. Điều này ảnh hưởng đến tốc độ đồng bộ và hiệu suất mạng.

7. auto.create.topics.enable – Tạo Topic Tự Động

Tham số này cho phép Kafka tự động tạo topic khi client yêu cầu. Điều này rất tiện lợi khi phát triển, nhưng trong môi trường sản xuất, việc kiểm soát chặt chẽ số lượng và cấu hình của topic là rất quan trọng. Thông thường, tham số này sẽ bị tắt (false) để tránh tạo ra những topic không mong muốn.

8. min.insync.replicas – Đảm Bảo Tính Toàn Vẹn Dữ Liệu

Để đảm bảo tính toàn vẹn và an toàn của dữ liệu, Kafka yêu cầu một số lượng replica tối thiểu phải đồng bộ trước khi nó chấp nhận yêu cầu ghi dữ liệu từ producer. Tham số min.insync.replicas giúp bạn kiểm soát điều này, đảm bảo rằng dữ liệu luôn được sao chép đầy đủ trước khi Kafka xác nhận ghi thành công.

9. message.max.bytes – Quản Lý Kích Thước Message

Khi xử lý dữ liệu lớn, việc kiểm soát kích thước message là điều cần thiết. Tham số message.max.bytes giúp giới hạn kích thước message Kafka có thể xử lý. Việc thiết lập giá trị quá cao có thể làm quá tải broker, trong khi giá trị quá thấp có thể gây khó khăn khi truyền tải message lớn.

10. log.cleanup.policy – Quản Lý Dọn Dẹp Dữ Liệu

Kafka cung cấp hai chính sách dọn dẹp dữ liệu: deletecompact. Chính sách delete sẽ xóa các bản ghi cũ sau khi hết hạn, còn compact sẽ nén dữ liệu, chỉ giữ lại bản ghi cuối cùng của mỗi key. Việc lựa chọn chính sách phù hợp với nhu cầu của ứng dụng là rất quan trọng để tối ưu hóa khả năng lưu trữ và đọc dữ liệu.

Các tham số quan trọng trong Kafka Broker

Tham sốMô tảVai trò
broker.idID duy nhất cho mỗi broker trong cluster.Nhận diện broker.
log.dirsThư mục chứa dữ liệu của các partition và topic.Lưu trữ dữ liệu.
zookeeper.connectĐịa chỉ kết nối đến Zookeeper.Quản lý metadata và điều phối cluster.
num.network.threadsSố luồng để xử lý yêu cầu qua mạng.Xử lý nhiều kết nối đồng thời.
num.io.threadsSố luồng để xử lý tác vụ I/O (đọc/ghi dữ liệu từ đĩa).Tăng hiệu suất đọc/ghi dữ liệu.
socket.send.buffer.bytesKích thước buffer cho việc gửi dữ liệu qua socket.Cải thiện tốc độ truyền tải dữ liệu.
socket.receive.buffer.bytesKích thước buffer cho việc nhận dữ liệu qua socket.Tăng hiệu suất truyền dữ liệu qua mạng.
log.retention.hoursThời gian giữ dữ liệu trong broker.Quản lý lưu trữ log.
log.retention.bytesKích thước tối đa của log trước khi xóa.Giải phóng dung lượng.
log.segment.bytesKích thước tối đa của một log segment trước khi phân chia.Tối ưu việc ghi/đọc dữ liệu.
replica.fetch.max.bytesKích thước dữ liệu tối đa replica có thể nhận từ leader.Đồng bộ dữ liệu giữa các replica.
auto.create.topics.enableTự động tạo topic khi client yêu cầu.Tạo topic tự động.
min.insync.replicasSố lượng replica tối thiểu phải đồng bộ để chấp nhận ghi dữ liệu.Đảm bảo tính toàn vẹn dữ liệu.
offsets.retention.minutesThời gian lưu trữ offset trong topic __consumer_offsets.Quản lý việc đọc lại dữ liệu từ client.
message.max.bytesKích thước tối đa của một message Kafka.Quản lý kích thước dữ liệu gửi qua broker.
default.replication.factorSố lượng bản sao mặc định của mỗi partition khi tạo topic mới.Tăng khả năng chịu lỗi của topic.
log.cleanup.policyChính sách dọn dẹp dữ liệu log (delete hoặc compact).Quản lý việc nén hoặc xóa dữ liệu cũ.
replica.lag.time.max.msThời gian tối đa replica có thể tụt lại phía sau leader.Phát hiện và xử lý lỗi replica không đồng bộ.

Các Tham Số Quan Trọng Cho Kafka Producer

Tham sốMô tảVai trò
bootstrap.serversDanh sách các broker mà producer sẽ kết nối để gửi message.Kết nối tới cluster Kafka.
key.serializerLớp serializer để serialize key của message.Chuyển đổi key thành byte.
value.serializerLớp serializer để serialize value của message.Chuyển đổi value thành byte.
acksXác định khi nào producer nhận được xác nhận từ broker (0, 1, all).Đảm bảo an toàn dữ liệu.
compression.typeLoại nén dữ liệu (none, gzip, snappy, lz4, zstd).Tối ưu kích thước message.
retriesSố lần producer sẽ thử gửi lại message nếu gặp lỗi.Đảm bảo tính ổn định khi có lỗi.
batch.sizeKích thước batch (byte) cho mỗi lần gửi dữ liệu đến broker.Tối ưu hiệu suất gửi message.
linger.msThời gian tối đa producer chờ trước khi gửi batch.Tăng hiệu suất gửi khi có nhiều message nhỏ.
buffer.memoryDung lượng bộ nhớ mà producer sử dụng để lưu trữ các record trước khi gửi tới broker.Tăng khả năng lưu trữ trước khi gửi.
max.in.flight.requests.per.connectionSố lượng request tối đa có thể gửi chưa được xác nhận đồng thời.Quản lý luồng gửi dữ liệu.
timeout.msThời gian chờ đợi trước khi request từ producer hết hạn.Xử lý lỗi khi không có phản hồi từ broker.
enable.idempotenceKích hoạt tính năng idempotence để đảm bảo producer không gửi trùng message.Đảm bảo gửi dữ liệu không trùng lặp.
client.idID của client giúp phân biệt với các producer khác trong cluster.Nhận diện producer.
max.block.msThời gian tối đa producer sẽ block khi buffer đầy hoặc metadata không khả dụng.Quản lý thời gian chờ trước khi thất bại.
request.timeout.msThời gian chờ đợi phản hồi từ broker trước khi coi là thất bại.Tối ưu thời gian retry.
delivery.timeout.msThời gian tối đa để gửi một record, bao gồm tất cả lần retry.Giới hạn thời gian gửi dữ liệu.

Các Tham Số Quan Trọng Cần Biết Khi Cấu Hình Kafka Producer

Trong hệ thống phân phối dữ liệu, Kafka Producer đóng vai trò quan trọng khi gửi dữ liệu từ ứng dụng đến các topic trên Kafka cluster. Để đảm bảo quá trình gửi dữ liệu hiệu quả, chúng ta cần nắm rõ và điều chỉnh các tham số cấu hình của Kafka Producer. Bài viết này sẽ điểm qua các tham số quan trọng và cách chúng ảnh hưởng đến hiệu suất và độ ổn định của hệ thống.

1. bootstrap.servers – Kết Nối Đến Kafka Cluster

Tham số bootstrap.servers chứa danh sách các broker mà producer có thể kết nối để gửi dữ liệu. Danh sách này giúp producer khám phá cluster Kafka và lựa chọn broker phù hợp. Việc chỉ định nhiều broker sẽ giúp cải thiện khả năng kết nối khi một hoặc nhiều broker không khả dụng.

2. key.serializervalue.serializer – Serialization Dữ Liệu

Kafka Producer sử dụng các lớp serializer để chuyển đổi key và value của message thành byte trước khi gửi qua mạng. Tham số key.serializervalue.serializer xác định cách thức chuyển đổi này. Tùy thuộc vào dữ liệu cần gửi (string, JSON, Avro,...), bạn sẽ chọn các serializer phù hợp để tối ưu việc chuyển đổi dữ liệu.

3. acks – Đảm Bảo An Toàn Dữ Liệu

Tham số acks xác định khi nào producer nhận được xác nhận từ broker rằng dữ liệu đã được ghi thành công. Bạn có thể cấu hình:

  • acks=0: Producer không chờ phản hồi từ broker, dẫn đến tốc độ cao nhưng rủi ro mất dữ liệu.

  • acks=1: Producer nhận phản hồi từ leader broker, đảm bảo rằng ít nhất một broker đã nhận dữ liệu.

  • acks=all: Producer sẽ chỉ nhận phản hồi khi tất cả các replica đã nhận được dữ liệu, đảm bảo an toàn cao nhất nhưng làm chậm quá trình.

Việc chọn giá trị cho tham số này phụ thuộc vào mức độ quan trọng của dữ liệu. Trong môi trường sản xuất, acks=all là lựa chọn phổ biến để đảm bảo không mất dữ liệu.

4. compression.type – Tối Ưu Kích Thước Message

Kafka hỗ trợ nén dữ liệu trước khi gửi để giảm dung lượng và tiết kiệm băng thông. Các loại nén như gzip, snappy, lz4, và zstd đều có thể được sử dụng, với mỗi loại có ưu điểm riêng. Tham số compression.type cho phép bạn chọn loại nén phù hợp. Việc nén dữ liệu giúp giảm băng thông nhưng cần cân nhắc giữa tốc độ và hiệu suất.

5. retries – Tăng Khả Năng Chịu Lỗi

Khi gửi dữ liệu gặp sự cố (ví dụ: broker không phản hồi), tham số retries xác định số lần producer sẽ thử gửi lại. Điều này giúp tăng độ tin cậy của quá trình gửi dữ liệu. Tuy nhiên, khi kết hợp với acks=all, số lần retry lớn có thể kéo dài thời gian chờ đợi của producer.

6. batch.sizelinger.ms – Tối Ưu Gửi Dữ Liệu

  • batch.size: Xác định kích thước batch mà producer sẽ gom các message trước khi gửi. Nếu có nhiều message nhỏ, việc gửi theo batch sẽ cải thiện hiệu suất bằng cách giảm số lần gửi qua mạng.

  • linger.ms: Tham số này cho phép producer chờ một khoảng thời gian trước khi gửi batch, giúp gom thêm nhiều message vào batch trước khi gửi. Điều này đặc biệt hữu ích khi producer nhận được nhiều message trong một khoảng thời gian ngắn.

7. buffer.memory – Quản Lý Bộ Nhớ

Tham số này quy định lượng bộ nhớ mà producer có thể sử dụng để lưu trữ message trước khi gửi. Khi buffer đầy, producer sẽ tạm dừng việc nhận thêm message cho đến khi có thêm bộ nhớ trống. Điều chỉnh buffer.memory giúp kiểm soát tài nguyên và tối ưu hóa quá trình gửi dữ liệu, đặc biệt trong các hệ thống có lưu lượng cao.

8. max.in.flight.requests.per.connection – Điều Chỉnh Luồng Gửi

Tham số này giới hạn số lượng yêu cầu gửi dữ liệu đồng thời từ producer đến broker chưa được xác nhận. Giá trị cao giúp tăng tốc độ gửi dữ liệu, nhưng có thể gây ra tình trạng dữ liệu gửi không đồng bộ hoặc trùng lặp nếu không kết hợp với tính năng idempotence.

9. enable.idempotence – Đảm Bảo Gửi Dữ Liệu Không Trùng Lặp

Khi enable.idempotence được bật, producer sẽ gửi dữ liệu một cách duy nhất, đảm bảo rằng không có dữ liệu nào được gửi trùng lặp ngay cả khi producer gặp sự cố hoặc thực hiện nhiều lần retry. Tính năng này đặc biệt quan trọng trong các ứng dụng yêu cầu tính nhất quán cao.

10. delivery.timeout.ms – Giới Hạn Thời Gian Gửi Dữ Liệu

Tham số này quy định thời gian tối đa để một message có thể được gửi, bao gồm cả các lần retry. Nếu thời gian này vượt quá giới hạn, producer sẽ coi việc gửi là thất bại. Điều này giúp tránh việc hệ thống bị kẹt trong các lần retry kéo dài quá lâu.

Các Tham Số Quan Trọng Cần Biết Khi Cấu Hình Kafka Consumer

Dưới đây là một số tham số quan trọng trong Kafka Consumer mà bạn cần hiểu và cấu hình đúng cách để đảm bảo hiệu quả khi xử lý dữ liệu trong Kafka.

Tham sốMô tả
bootstrap.serversĐịa chỉ của Kafka broker, giúp Consumer kết nối tới các broker trong cluster.
group.idNhóm consumer mà consumer hiện tại thuộc về. Các consumer trong cùng một group chia sẻ việc xử lý các phân vùng của topic.
auto.offset.resetQuy định hành vi khi không tìm thấy offset hợp lệ. Các giá trị phổ biến: "earliest" (đọc từ đầu) hoặc "latest" (đọc từ cuối).
enable.auto.commitNếu True, consumer tự động commit offset của mình theo khoảng thời gian auto.commit.interval.ms.
auto.commit.interval.msKhoảng thời gian (ms) mà consumer sẽ tự động commit offset khi enable.auto.commit được bật. Mặc định là 5000 ms (5 giây).
key.deserializerGiải mã dữ liệu key của message từ byte về object. Các tùy chọn thông thường: StringDeserializer, IntegerDeserializer.
value.deserializerGiải mã dữ liệu value của message từ byte về object.
fetch.min.bytesSố byte tối thiểu mà consumer sẽ chờ để nhận trước khi trả về dữ liệu. Tăng giá trị này để tối ưu hiệu suất đọc dữ liệu với khối lượng lớn.
max.poll.recordsSố lượng bản ghi tối đa mà consumer sẽ nhận trong một lần poll. Giúp kiểm soát lượng dữ liệu mà consumer xử lý cùng một lúc.
session.timeout.msThời gian mà Kafka broker chờ đợi trước khi coi consumer là đã chết nếu không nhận được heartbeat. Mặc định là 10 giây.
heartbeat.interval.msKhoảng thời gian giữa mỗi lần gửi heartbeat của consumer tới broker. Giúp giữ kết nối của consumer với broker.
max.partition.fetch.bytesSố byte tối đa mà consumer sẽ đọc từ một phân vùng trong một lần fetch. Giá trị mặc định là 1048576 (1 MB).
client.idID duy nhất giúp Kafka broker nhận diện consumer. Điều này hữu ích để theo dõi các log hoặc monitoring.
isolation.levelĐiều chỉnh mức cách ly dữ liệu khi đọc message từ topic sử dụng Transaction. Các giá trị có thể là read_uncommitted hoặc read_committed.
request.timeout.msKhoảng thời gian mà consumer sẽ chờ đợi phản hồi từ broker trước khi timeout.
consumer.timeout.msThời gian chờ trước khi consumer tạm ngưng khi không có dữ liệu nào sẵn sàng để đọc.

Chi tiết một số tham số quan trọng:

1. group.id

  • Mô tả: Đây là tham số quan trọng nhất để xác định consumer thuộc về nhóm nào. Các consumer trong cùng nhóm sẽ cùng nhau chia sẻ dữ liệu từ các phân vùng của topic. Nếu không có group.id, consumer sẽ hoạt động như một "consumer độc lập" và nhận tất cả các message từ topic.

2. auto.offset.reset

  • Mô tả: Tham số này kiểm soát hành vi của consumer khi không tìm thấy offset hợp lệ (ví dụ khi một consumer mới tham gia group). Giá trị phổ biến:

    • "earliest": Bắt đầu đọc từ offset nhỏ nhất (đọc từ đầu).

    • "latest": Bắt đầu đọc từ offset lớn nhất (đọc từ vị trí cuối).

3. enable.auto.commitauto.commit.interval.ms

  • Mô tả: Khi enable.auto.commit được bật, consumer sẽ tự động commit offset của mình để Kafka biết được vị trí mà consumer đã xử lý xong dữ liệu. auto.commit.interval.ms xác định thời gian giữa mỗi lần commit.

    • Lưu ý: Nên cẩn thận khi sử dụng auto-commit vì có thể dẫn đến việc mất dữ liệu nếu consumer bị crash trước khi commit.

4. max.poll.records

  • Mô tả: Giới hạn số lượng bản ghi (records) mà consumer sẽ lấy trong một lần poll(). Điều này hữu ích để điều chỉnh khối lượng công việc mà consumer phải xử lý trong một lần gọi.

5. key.deserializervalue.deserializer

  • Mô tả: Dữ liệu trong Kafka được lưu trữ dưới dạng byte. Khi nhận message, consumer cần giải mã (deserialize) dữ liệu để chuyển từ dạng byte về dạng có thể hiểu được. Cần cấu hình đúng deserializer tùy theo kiểu dữ liệu của keyvalue mà producer đã gửi.

6. fetch.min.bytes

  • Mô tả: Xác định số byte tối thiểu mà consumer sẽ chờ để đọc từ broker. Giá trị mặc định là 1 byte, nhưng bạn có thể tăng giá trị này nếu muốn tối ưu throughput khi xử lý lượng lớn dữ liệu.

7. session.timeout.msheartbeat.interval.ms

  • Mô tả: Hai tham số này kiểm soát sự "sống sót" của consumer trong Kafka group. Nếu broker không nhận được heartbeat từ consumer trong khoảng session.timeout.ms, nó sẽ coi consumer là đã chết và phân phối lại phân vùng của consumer cho các consumer khác.

8. max.partition.fetch.bytes

  • Mô tả: Giới hạn số byte tối đa mà consumer sẽ fetch từ một phân vùng trong một lần. Điều này giúp kiểm soát lượng dữ liệu mà consumer xử lý trong mỗi lần fetch.
0
Subscribe to my newsletter

Read articles from Kilo directly inside your inbox. Subscribe to the newsletter, and don't miss out.

Written by

Kilo
Kilo