Является ли сжатие Kafka Log также механизмом дедупликации
Я прошел этот пост Уплотнение Kafka для дедупликации
, в котором говорится, что сжатие Kafka Log не является механизм дедупликации. Но у меня все еще мало сомнений.
q3) Я не могу понять, как сжатие журналов не предотвращает повторное чтение.
Suppose Producer sends 2 records
Key : Employee1 { Salary :1000 }
Key : Employee1 { Salary :2000 }
Consumer hasn't read the data yet.
Log Compaction happens
we have one only record
Key : Employee1 { Salary :2000 }
Consumer reads data now
Таким образом, потребитель только читает Key : Employee1 { Salary :2000 }
. Поэтому повторное чтение запрещено. Где я иду не так? А что подразумевается под сжатием логов, происходит только когда «сегмент зафиксирован»?