forked from GuoNingNing/fire-spark
-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathdefault.properties
214 lines (163 loc) · 7.12 KB
/
default.properties
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
######################################################
# #
# spark process run.sh #
# user config #
# #
######################################################
#必须设置,执行class的全包名称
spark.run.main=
#必须设置,包含main class的jar包名称
#jar文件必须包含在lib.path当中
spark.run.main.jar=
#提供给执行class的命令行参数,多个参数之间用逗号隔开,参数中不能包含空格等空白符
#Ex:param1,param2,..
spark.run.self.params=
#用户代码依赖jar包的所在目录
#可以是绝对路径,也可以是相对此配置文件的相对路径,相对路径会自动补全
spark.run.lib.path=lib
######################################################
# #
# spark self config #
# #
######################################################
#执行集群设置,不用设置,一般使用YARN
spark.master=yarn
#YARN部署模式
#default=cluster
spark.submit.deployMode=cluster
#spark-streaming每个批次间隔时间
#default=300
spark.batch.duration=300
#spark on yarn的任务提交队列
#default=defalut
spark.yarn.queue=default
#spark 任务名称配置,建议保持任务名称全局唯一
#这样可以在设计任务失败的时候根据名称做一些唯一处理
#不设置使用类全名.App
spark.app.name=
#spark网络序列化方式,默认是JavaSerializer,可针对所有类型但速度较慢
#这里使用推荐的Kryo方式
#kafka-0.10必须使用此方式
spark.serializer=org.apache.spark.serializer.KryoSerializer
#++++++++++++++++++++++Driver节点相关配置+++++++++++++++++++++++++++
#Driver节点使用内存大小设置
#default=512MB
spark.driver.memory=512MB
#Driver节点使用的cpu个数设置
#default=1
spark.driver.cores=1
#Driver节点构建时spark-jar和user-jar冲突时优先使用用户提供的,这是一个实验性质的参数只对cluster模式有效
#default=false
spark.driver.userClassPathFirst=false
#++++++++++++++++++++++Executor节点相关配置+++++++++++++++++++++++++
#Executor个数设置
#default=1
spark.executor.instances=1
#Executor使用cpu个数设置
#default=1
spark.executor.cores=1
#Executor使用内存大小设置
#default=512MB
spark.executor.memory=512MB
#同driver节点配置作用相同,但是是针对executor的
#default=false
spark.executor.userClassPathFirst=true
#++++++++++++++++++++++++Executor动态分配相关配置++++++++++++++++++++
#Executor动态分配的前置服务
#default=false
spark.shuffle.service.enabled=true
#服务对应的端口,此端口服务是配置在yarn-site中的,由NodeManager服务加载启动
#default=7337
spark.shuffle.service.port=7337
#配置是否启用资源动态分配,此动态分配是针对executor的,需要yarn集群配置支持动态分配
#default=false
spark.dynamicAllocation.enabled=true
#释放空闲的executor的时间
#default=60s
spark.dynamicAllocation.executorIdleTimeout=60s
#有缓存的executor空闲释放时间
#default=infinity(默认不释放)
spark.dynamicAllocation.cachedExecutorIdleTimeout=-1
#初始化executor的个数,如果设置spark.executor.instances谁小用谁
#default=minExecutors(不设置使用此项配置值)
spark.dynamicAllocation.initialExecutors=1
#executor动态分配可分配最大数量
#default=infinity
spark.dynamicAllocation.maxExecutors=60
#executor动态收缩的最小数量
#default=0
spark.dynamicAllocation.minExecutors=1
#批次调度延迟多长时间开始增加executor
#default=1s
spark.dynamicAllocation.schedulerBacklogTimeout=1s
#同上,但是是针对之后的请求
#default=SchedulerBacklogTimeout(不设置使用此项配置值)
spark.dynamicAllocation.sustainedSchedulerBacklogTimeout=1s
######################################################
# #
# Fire Spark Monitor #
# Congestion base config #
# #
######################################################
#FireSpark 自带的拥堵监控需要的几个参数
#钉钉机器人发送消息的api地址,需要从http开头的全路径
spark.monitor.congestion.send.api=
#堆积了几个批次之后开始告警,默认是0不告警
#default=0
spark.monitor.congestion.batch=0
#钉钉联系人注册钉钉使用的手机号
spark.monitor.congestion.ding.to=
#堆积多少个批次之后kill掉任务,默认是0不kill,配合任务自动重启功能可有效重启堆积任务使恢复
#default=0
spark.monitor.suicide.batch=0
######################################################
# #
# Fire Spark Kafka Source #
# base config #
# #
######################################################
#spark.source.kafka.consume后面的配置是标准kafka配置
#kafka消费的topics配置,可以配置多个,每个topic之间用逗号[,]隔开
#default=
spark.source.kafka.consume.topics=
#kafka consumer的group id.
#default=z.cloud.kafka.consumer.001
spark.source.kafka.consume.group.id=z.cloud.kafka.consumer.001
#kafka集群的主机和端口号,可以配置多个,每个主机之间用逗号[,]隔开
#default=
spark.source.kafka.consume.bootstrap.servers=
#第一次消费kafka topic的时候指定从什么位置消费 有两个可选值latest[最新位置],earliest[最早位置]
#default=earliest
spark.source.kafka.consume.auto.offset.reset=earliest
#spark消费kafka的时候如何管理offset 这里可选的值有三种hbase,redis,kafka每种值对应一种存储方式
#default=kafka
spark.source.kafka.offset.store.type=kafka
#自定义spark管理kafka offset的方法,需要指定一个自定义类的名称
#spark.source.kafka.offset.store.class=none
#新版本kafka使用的key序列化方式
#default=java.Serialization
spark.source.kafka.consume.key.deserializer=org.apache.kafka.common.serialization.StringDeserializer
#最新版kafka使用的value序列化方式
#default=java.Serialization
spark.source.kafka.consume.value.deserializer=org.apache.kafka.common.serialization.StringDeserializer
#获取一次数据的最大长度,此值的大小需要kafka server端支持
#default=10485760
spark.source.kafka.consume.max.partition.fetch.bytes=10485760
#获取一次数据请求的最大等待时间
#default=3000
spark.source.kafka.consume.fetch.max.wait.ms=3000
######################################################
# #
# Fire Spark Redis Sink #
# base config #
# #
######################################################
#FireSpark redis sink需要的几个配置
#redis主机
spark.sink.redis.host=
#redis端口
spark.sink.redis.port=6379
#redis数据库
spark.sink.redis.db=0
#redis连接超时时间
spark.sink.redis.timeout=30