锁屏面试题百日百刷,每个工作日保持更新面试题。请看到最初就能获取你想要的, 接下来的是今日的面试题:

1.Flink 的运行必须依赖 Hadoop组件吗?**

Flink能够齐全独立于Hadoop,在不依赖Hadoop组件下运行。然而做为大数据的基础设施,Hadoop体系是任何大数据框架都绕不过来的。Flink能够集成泛滥Hadooop 组件,例如Yarn、Hbase、HDFS等等。例如,Flink能够和Yarn集成做资源调度,也能够读写HDFS,或者利用HDFS做检查点。

2.你们的Flink集群规模多大?**

大家留神,这个问题看起来是问你理论利用中的Flink集群规模,其实还暗藏着另一个问题:Flink能够反对多少节点的集群规模?在答复这个问题时候,能够将本人生产环节中的集群规模、节点、内存状况阐明,同时阐明部署模式(个别是Flink on Yarn),除此之外,用户也能够同时在小集群(少于5个节点)和领有 TB 级别状态的上千个节点上运行 Flink 工作。

3.Flink的根底编程模型理解吗?

上图是来自Flink官网的运行流程图。通过上图咱们能够得悉,Flink 程序的根本构建是数据输出来自一个 Source,Source 代表数据的输出端,通过 Transformation 进行转换,而后在一个或者多个Sink接收器中完结。数据流(stream)就是一组永远不会进行的数据记录流,而转换(transformation)是将一个或多个流作为输出,并生成一个或多个输入流的操作。执行时,Flink程序映射到 streaming dataflows,由流(streams)和转换操作

(transformation operators)组成。

4.Flink集群有哪些角色?各自有什么作用?

Flink 程序在运行时次要有 TaskManager,JobManager,Client三种角色。其中JobManager扮演着集群中的管理者Master的角色,它是整个集群的协调者,负责接管Flink Job,协调检查点,Failover 故障复原等,同时治理Flink集群中从节点TaskManager。TaskManager是理论负责执行计算的Worker,在其上执行Flink Job的一组Task,每个TaskManager负责管理其所在节点上的资源信息,如内存、磁盘、网络,在启动的时候将资源的状态向JobManager汇报。Client是Flink程序提交的客户端,当用户提交一个Flink程序时,会首先创立一个Client,该Client首先会对用户提交的Flink程序进行预处理,并提交到Flink集群中解决,所以Client须要从用户提交的Flink程序配置中获取JobManager的地址,并建设到JobManager的连贯,将Flink Job提交给JobManager。

全部内容在git上,理解更多请点我头像或到我的主页去取得,谢谢**