Default shard-journal-recovery-log-batch-size to 1
[controller.git] / opendaylight / md-sal / sal-clustering-config / src / main / resources / initial / datastore.cfg
index e27376290e3503aaba2e264b3407e4be9de44d92..42c46bf9016363d9a5f32b9fcc6d726ddf1d7228 100644 (file)
@@ -35,9 +35,6 @@ operational.persistent=false
 # failing an operation (eg transaction create and change listener registration).
 #shard-initialization-timeout-in-seconds=300
 
-# The maximum number of journal log entries to batch on recovery for a shard before committing to the data store.
-#shard-journal-recovery-log-batch-size=1000
-
 # The minimum number of entries to be present in the in-memory journal log before a snapshot is to be taken.
 #shard-snapshot-batch-count=20000
 
@@ -73,3 +70,13 @@ operational.persistent=false
 # The maximum queue size for each shard's data store executor.
 #max-shard-data-store-executor-queue-size=5000
 
+# A fully qualified java class name. The class should implement
+# org.opendaylight.controller.cluster.raft.policy.RaftPolicy. This java class should be
+# accessible to the distributed data store OSGi module so that it can be dynamically loaded via
+# reflection. For now let's assume that these classes to customize raft behaviors should be
+# present in the distributed data store module itself. If this property is set to a class which
+# cannot be found then the default raft policy will be applied
+#custom-raft-policy-implementation=
+
+# The maximum size (in bytes) for snapshot chunks to be sent during sync
+#shard-snapshot-chunk-size=20480000