Kafka的使用与特性怎么理解

技术Kafka的使用与特性怎么理解这篇文章主要讲解了“Kafka的使用与特性怎么理解”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Kafka的使用与特性怎么理解”吧!1、

本文主要讲解“如何理解卡夫卡的使用和特点”。本文的解释简单明了,易学易懂。现在,请跟随边肖的思路一起学习和学习《如何理解卡夫卡的使用和特点》!

1、面试官:可以简述下Kafka架构中比较重要的关键字吗?

比如Partition,Broker,怎么理解?

问题分析:Kafka基础知识,由于卡夫卡的出色表现,集群结构也有所不同。初学者可能不理解一些新的概念设计名称。要构建一个卡夫卡集群,首先需要理解话题、生产者、消费者和经纪人的概念。

我对答:卡夫卡做了一些深入的了解,它的设计理念还是值得借鉴的。有六个关键的名字概念,可以帮助我们更好地理解卡夫卡的工作机制。

Producer

消息的生产者,如确认用户已付款的支付系统,应通知订单系统和物流系统,支付系统为生产者。

Consumer

在生产者的情况下,物流系统是消费者,前两个相对简单,我就不多说了。

Topic

发布到MQ集群的每个消息都有一个类别。这个类别叫做主题,可以理解为一种消息的名称。的所有信息已按主题分类为一个单元。

Partition

卡夫卡的物理分区概念,每个主题将分散在一个或多个分区中。如果一个主题的数据太大,就会被分成小块。Kafka引入了分区的多副本模型,副本之间采用了“一个领导者,多个跟随者”的设计,可以通过多副本实现自动故障转移,保证可用性。

Broker:

它可以理解为服务器的一个节点,一个集群包含一个或多个服务器,称为代理。相应地,如果生产者发出消费,就会被忽略。消费者按照自己的速度慢慢消费。这期间可能会有很多消息,消费压力还是在一定范围内。生产者和消费者之间的解耦是缓存服务代理。

Kafka Cluster

集群是代理的集合,多个代理形成一个高可用性集群。

Producer 与 Consumer的关系

Kafka的使用与特性怎么理解

topic 和 Partition 的关系

一个topic可以有序地存放在多个Partition,每个Partition

Kafka的使用与特性怎么理解

当我到这里时,面试官没有打断我……所以我继续说。

00-1010 1.类似产品的功能这里不再一一列举,而是直接总结卡夫卡的独特功能:

2.与同类中间件RabbitMQ或ActiveMQ相比,Kafka支持批量拉取消息大大提高了Kafka的消息吞吐量。

支持多种发送场景:

1.送了就忘了。

2.同步发送。

3.异步发送回调函数。

虽然三种方法在时间上有差异,但并不意味着越快越好。具体使用哪种方法取决于具体的业务场景。例如,业务要求消息必须按顺序发送,并且可以使用第二个同步发送,并且只能在一个合作关系中使用。如果业务只关心消息的吞吐量,允许少量消息发送失败,不关心消息的发送顺序,那么可以使用发送并忘记。如果业务需要知道消息是否发送成功,不关心消息的顺序,可以通过异步回调发送消息。

3.分布式和高度可扩展。Kafka集群可以透明地扩展,向集群中添加新的服务器。

光说卡夫卡的优点,对其他同类产品不是不好吗?当然不是,存在就是真理,每一个产品都可以生存,都必须有自己的优势。比如RabbitMQ在吞吐量上略逊于卡夫卡,但他们的起点不同。RabbitMQ支持消息的可靠传递,支持事务,不支持批处理操作。在技术选择上,选择最适合自己、自己最了解的。

>

分布式 高性能 持久性和扩展性 支持多分区 高吞吐量 数据可持久化 支持多副本 低延迟 容错性高 支持多订阅者 高并发 支持水平在线扩展 基于ZooKeeper调度 时间复杂度为O(1) 消息分发自动平衡

言多必失,说了一堆 Kafka 相比其他产品有多好多快,终于成功给自己挖了一个坑。(?),顺着我的思路展开了问

2、面试官:那为什么Kafka的吞吐量远高于其他同类中间件?

问题分析:多年经验总结,面试中最吃亏的就是你把你不熟悉的东西写在简历上,还有就是你知道结果,不知其原理,源码没看过,好歹也要知道用了巧妙的设计。

答:Kafka 是一个高吞吐量分布式消息系统,并且提供了持久化。其高性能的有两个重要特点:

1.利用了磁盘连续读写性能远远高于随机读写的特点,内部采用消息的批量处理,zero-copy机制,数据的存储和获取是本地磁盘顺序批量操作,具有O(1)的复杂度,消息处理的效率很高。

2.并发,将一个topic拆分多个partition, kafka读写的单位是partition,因此,将一个topic拆分为多个partition可以提高吞吐量。但是,这里有个前提,就是不同partition需要位于不同的磁盘(可以在同一个机器)。如果多个partition位于同一个磁盘,那么意味着有多个进程同时对一个磁盘的多个文件进行读写,使得操作系统会对磁盘读写进行频繁调度,也就是破坏了磁盘读写的连续性。
在linkedlin的测试中,每台机器就加载了6个磁盘,并且不做ra,就是为了充分利用多磁盘并发读写,又保证每个磁盘连续读写的特性。

Kafka的使用与特性怎么理解

同一个topic会被分散到多个分片上,并行处理。 

深入分析

Kafka 消息的生产与消费模型Demo

伪代码:使用KafKa客户端发送一条消息

public class MqProducer {
    private final Logger LOG = LoggerFactory.getLogger(MqProducer.class);
 
    @Resource
    private Producer payProducer;
 
    public void sendPayMsg(String msg) {
        try {
            LOG.debug("send msg:{}", msg);
            payProducer.send(msg);//发送出去一条消息。
        } catch (MQException e) {
            LOG.error("mq消息异常 message:{}", msg, e);
        }
    }
}

长什么样子?

即payProducer.send(msg)里的msg的值:

{"businessType":1,"cityId":10,"ctime":1567426767077,"dataKey":20190902,"logType":1,"phone":"13212341234","uid":12345678,"userType":1,"uuid":"32EA02C86D78863"}

无论消息长短,都可以看作一个json串,用 key-value的形式传递信息。

伪代码:接收一条消息

public class DemoConsumer {
 
    /**
    * 注意:服务端对单ip创建相同主题相同队列的消费者实例数有限制,超过100个拒绝创建.
    * */
    private static IConsumerProcessor consumer;
 
    public static void main(String[] args) throws Exception {
        Properties properties = new Properties();
            properties.setProperty(ConsumerConstants.SubscribeGroup, "dache.risk.log.queue.v2");
 
        // 创建topic对应的consumer对象(注意每次build调用会产生一个新的实例)
        consumer = KafkaClient.buildConsumerFactory(properties, "topic.xxx.xxx");
 
        // 调用recvMessageWithParallel设置listener
        consumer.recvMessageWithParallel(String.class, new IMessageListener() {
            @Override
            public ConsumeStatus recvMessage(Message message, MessagetContext context) {
                //TODO:业务侧的消费逻辑代码
                try {
                    System.out.println("message=[" + message.getBody() + "]  partition=" + message.getParttion());
                } catch (Exception e) {
                    e.printStackTrace();
                }
              
                return ConsumeStatus.CONSUME_SUCCESS;
            }
        });
       
    }
}

附录:消息管理工具

如果你们刚刚搭建起Kafka集群,还没有完备的页面管理系统,你不妨了解一下这几款开源工具,给领导展示一下解决问题的能力。

为了简化开发者和服务工程师维护 Kafka 集群的工作,基于页面的管理工具必不可少。

常用 Kafka 开源管理工具:

Kafka Manager :由 yahoo 团队开发。

Kafka的使用与特性怎么理解

感谢各位的阅读,以上就是“Kafka的使用与特性怎么理解”的内容了,经过本文的学习后,相信大家对Kafka的使用与特性怎么理解这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是,小编将为大家推送更多相关知识点的文章,欢迎关注!

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/119050.html

(0)

相关推荐

  • hibernate中出现unknown entry问题怎么办

    技术hibernate中出现unknown entry问题怎么办小编给大家分享一下hibernate中出现unknown entry问题怎么办,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这

    攻略 2021年12月8日
  • C#的二次开发及应用举例分析

    技术C#的二次开发及应用举例分析本篇内容主要讲解“C#的二次开发及应用举例分析”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“C#的二次开发及应用举例分析”吧!二次开发及应用

    攻略 2021年11月26日
  • zookeeper安装部署

    技术zookeeper安装部署 zookeeper安装部署zookeeper安装部署
    这里的zookeeper用的是:zookeeper-3.4.5.tar.gz
    1.本地模式安装部署
    1.1 安装前准

    礼包 2021年11月9日
  • Sql Server中存储过程中输入和输出参数是什么

    技术Sql Server中存储过程中输入和输出参数是什么本篇文章为大家展示了Sql Server中存储过程中输入和输出参数是什么,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。[s

    攻略 2021年12月1日
  • 1.Rman备份的基本命令

    技术1.Rman备份的基本命令 1.Rman备份的基本命令一.target-连接数据库
    1.本地:[oracle@oracle ~]$ rman target /2.远程:[oracle@oracle

    礼包 2021年12月3日
  • arctanx的值域,arctanx的极限怎么求

    技术arctanx的值域,arctanx的极限怎么求arctanx的极限用洛必达法则求解。洛必达法则是在一定条件下通过分子分母分别求导再求极限来确定未定式值的方法。众所周知arctanx的值域,两个无穷小之比或两个无穷大

    生活 2021年10月25日