Replace cambria with DmaaP client
[dcaegen2/collectors/ves.git] / src / test / resources / dmaap-msg-router / MsgRtrApi.properties
1 # LICENSE_START=======================================================
2 #  org.onap.dmaap
3 #  ================================================================================
4 #  Copyright © 2017 AT&T Intellectual Property. All rights reserved.
5 #  ================================================================================
6 #  Licensed under the Apache License, Version 2.0 (the "License");
7 #  you may not use this file except in compliance with the License.
8 #  You may obtain a copy of the License at
9 #        http://www.apache.org/licenses/LICENSE-2.0
10 #
11 #  Unless required by applicable law or agreed to in writing, software
12 #  distributed under the License is distributed on an "AS IS" BASIS,
13 #  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
14 #  See the License for the specific language governing permissions and
15 #  limitations under the License.
16 #  ============LICENSE_END=========================================================
17 #
18 #  ECOMP is a trademark and service mark of AT&T Intellectual Property.
19 #
20 ###############################################################################
21 ###############################################################################
22 ##
23 ## Cambria API Server config
24 ##
25 ## Default values are shown as commented settings.
26 ##
27 ###############################################################################
28 ##
29 ## HTTP service
30 ##
31 ## 3904 is standard as of 7/29/14.
32 #
33 ## Zookeeper Connection
34 ##
35 ## Both Cambria and Kafka make use of Zookeeper.
36 ##
37 #config.zk.servers=172.18.1.1
38 #config.zk.servers={{.Values.zookeeper.name}}:{{.Values.zookeeper.port}}
39 config.zk.servers=zookeeper
40 #config.zk.root=/fe3c/cambria/config
41 ###############################################################################
42 ##
43 ## Kafka Connection
44 ##
45 ##        Items below are passed through to Kafka's producer and consumer
46 ##        configurations (after removing "kafka.")
47 ##        if you want to change request.required.acks it can take this one value
48 #kafka.metadata.broker.list=localhost:9092,localhost:9093
49 #kafka.metadata.broker.list={{.Values.kafka.name}}:{{.Values.kafka.port}}
50 kafka.metadata.broker.list=kafka:9092
51 ##kafka.request.required.acks=-1
52 #kafka.client.zookeeper=${config.zk.servers}
53 consumer.timeout.ms=100
54 zookeeper.connection.timeout.ms=6000
55 zookeeper.session.timeout.ms=20000
56 zookeeper.sync.time.ms=2000
57 auto.commit.interval.ms=1000
58 fetch.message.max.bytes=1000000
59 auto.commit.enable=false
60 #(backoff*retries > zksessiontimeout)
61 kafka.rebalance.backoff.ms=10000
62 kafka.rebalance.max.retries=6
63 ###############################################################################
64 ##
65 ##        Secured Config
66 ##
67 ##        Some data stored in the config system is sensitive -- API keys and secrets,
68 ##        for example. to protect it, we use an encryption layer for this section
69 ##        of the config.
70 ##
71 ## The key is a base64 encode AES key. This must be created/configured for
72 ## each installation.
73 #cambria.secureConfig.key=
74 ##
75 ## The initialization vector is a 16 byte value specific to the secured store.
76 ## This must be created/configured for each installation.
77 #cambria.secureConfig.iv=
78 ## Southfield Sandbox
79 cambria.secureConfig.key=b/7ouTn9FfEw2PQwL0ov/Q==
80 cambria.secureConfig.iv=wR9xP5k5vbz/xD0LmtqQLw==
81 authentication.adminSecret=fe3cCompound
82 #cambria.secureConfig.key[pc569h]=YT3XPyxEmKCTLI2NK+Sjbw==
83 #cambria.secureConfig.iv[pc569h]=rMm2jhR3yVnU+u2V9Ugu3Q==
84 ###############################################################################
85 ##
86 ## Consumer Caching
87 ##
88 ##        Kafka expects live connections from the consumer to the broker, which
89 ##        obviously doesn't work over connectionless HTTP requests. The Cambria
90 ##        server proxies HTTP requests into Kafka consumer sessions that are kept
91 ##        around for later re-use. Not doing so is costly for setup per request,
92 ##        which would substantially impact a high volume consumer's performance.
93 ##
94 ##        This complicates Cambria server failover, because we often need server
95 ##        A to close its connection before server B brings up the replacement.
96 ##
97 ## The consumer cache is normally enabled.
98 #cambria.consumer.cache.enabled=true
99 ## Cached consumers are cleaned up after a period of disuse. The server inspects
100 ## consumers every sweepFreqSeconds and will clean up any connections that are
101 ## dormant for touchFreqMs.
102 #cambria.consumer.cache.sweepFreqSeconds=15
103 cambria.consumer.cache.touchFreqMs=120000
104 ##stickforallconsumerrequests=false
105 ## The cache is managed through ZK. The default value for the ZK connection
106 ## string is the same as config.zk.servers.
107 #cambria.consumer.cache.zkConnect=${config.zk.servers}
108
109 ##
110 ## Shared cache information is associated with this node's name. The default
111 ## name is the hostname plus the HTTP service port this host runs on. (The
112 ## hostname is determined via InetAddress.getLocalHost ().getCanonicalHostName(),
113 ## which is not always adequate.) You can set this value explicitly here.
114 ##
115 #cambria.api.node.identifier=<use-something-unique-to-this-instance>
116
117 #cambria.rateLimit.maxEmptyPollsPerMinute=30
118 #cambria.rateLimitActual.delay.ms=10
119 ###############################################################################
120 ##
121 ## Metrics Reporting
122 ##
123 ##        This server can report its metrics periodically on a topic.
124 ##
125 #metrics.send.cambria.enabled=true
126 #metrics.send.cambria.topic=cambria.apinode.metrics                                  #msgrtr.apinode.metrics.dmaap
127 #metrics.send.cambria.sendEverySeconds=60
128 cambria.consumer.cache.zkBasePath=/fe3c/cambria/consumerCache
129 consumer.timeout=17
130 default.partitions=3
131 default.replicas=3
132 ##############################################################################
133 #100mb
134 maxcontentlength=10000
135 ##############################################################################
136 #AAF Properties
137 msgRtr.namespace.aaf=org.onap.dmaap.mr.topic
138 msgRtr.topicfactory.aaf=org.onap.dmaap.mr.topicFactory|:org.onap.dmaap.mr.topic:
139 enforced.topic.name.AAF=org.onap.dmaap.mr
140 forceAAF=false
141 transidUEBtopicreqd=false
142 defaultNSforUEB=org.onap.dmaap.mr
143 ##############################################################################
144 #Mirror Maker Agent
145 msgRtr.mirrormakeradmin.aaf=org.onap.dmaap.mr.mirrormaker|*|admin
146 msgRtr.mirrormakeruser.aaf=org.onap.dmaap.mr.mirrormaker|*|user
147 msgRtr.mirrormakeruser.aaf.create=org.onap.dmaap.mr.topicFactory|:org.onap.dmaap.mr.topic:
148 msgRtr.mirrormaker.timeout=15000
149 msgRtr.mirrormaker.topic=org.onap.dmaap.mr.mirrormakeragent
150 msgRtr.mirrormaker.consumergroup=mmagentserver
151 msgRtr.mirrormaker.consumerid=1
152 kafka.max.poll.interval.ms=300000
153 kafka.heartbeat.interval.ms=60000
154 kafka.session.timeout.ms=240000
155 kafka.max.poll.records=1000