Remove dependency on sal-connector-api
[netconf.git] / docs / user-guide.rst
1 .. _netconf-user-guide:
2
3 NETCONF User Guide
4 ==================
5
6 Overview
7 --------
8
9 NETCONF is an XML-based protocol used for configuration and monitoring
10 devices in the network. The base NETCONF protocol is described in
11 `RFC-6241 <http://tools.ietf.org/html/rfc6241>`__.
12
13 **NETCONF in OpenDaylight:.**
14
15 OpenDaylight supports the NETCONF protocol as a northbound server as
16 well as a southbound plugin. It also includes a set of test tools for
17 simulating NETCONF devices and clients.
18
19 Southbound (netconf-connector)
20 ------------------------------
21
22 The NETCONF southbound plugin is capable of connecting to remote NETCONF
23 devices and exposing their configuration/operational datastores, RPCs
24 and notifications as MD-SAL mount points. These mount points allow
25 applications and remote users (over RESTCONF) to interact with the
26 mounted devices.
27
28 In terms of RFCs, the connector supports:
29
30 -  `RFC-6241 <http://tools.ietf.org/html/rfc6241>`__
31
32 -  `RFC-5277 <https://tools.ietf.org/html/rfc5277>`__
33
34 -  `RFC-6022 <https://tools.ietf.org/html/rfc6022>`__
35
36 -  `draft-ietf-netconf-yang-library-06 <https://tools.ietf.org/html/draft-ietf-netconf-yang-library-06>`__
37
38 **Netconf-connector is fully model-driven (utilizing the YANG modeling
39 language) so in addition to the above RFCs, it supports any
40 data/RPC/notifications described by a YANG model that is implemented by
41 the device.**
42
43 .. tip::
44
45     NETCONF southbound can be activated by installing
46     ``odl-netconf-connector-all`` Karaf feature.
47
48 Netconf-connector configuration
49 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
50
51 There are 2 ways for configuring netconf-connector: NETCONF or RESTCONF.
52 This guide focuses on using RESTCONF.
53
54 Default configuration
55 ^^^^^^^^^^^^^^^^^^^^^
56
57 The default configuration contains all the necessary dependencies (file:
58 01-netconf.xml) and a single instance of netconf-connector (file:
59 99-netconf-connector.xml) called **controller-config** which connects
60 itself to the NETCONF northbound in OpenDaylight in a loopback fashion.
61 The connector mounts the NETCONF server for config-subsystem in order to
62 enable RESTCONF protocol for config-subsystem. This RESTCONF still goes
63 via NETCONF, but using RESTCONF is much more user friendly than using
64 NETCONF.
65
66 Spawning additional netconf-connectors while the controller is running
67 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
68
69 Preconditions:
70
71 1. OpenDaylight is running
72
73 2. In Karaf, you must have the netconf-connector installed (at the Karaf
74    prompt, type: ``feature:install odl-netconf-connector-all``); the
75    loopback NETCONF mountpoint will be automatically configured and
76    activated
77
78 3. Wait until log displays following entry:
79    RemoteDevice{controller-config}: NETCONF connector initialized
80    successfully
81
82 To configure a new netconf-connector you need to send following request
83 to RESTCONF:
84
85 POST
86 http://localhost:8181/restconf/config/network-topology:network-topology/topology/topology-netconf/node/controller-config/yang-ext:mount/config:modules
87
88 Headers:
89
90 -  Accept application/xml
91
92 -  Content-Type application/xml
93
94 ::
95
96     <module xmlns="urn:opendaylight:params:xml:ns:yang:controller:config">
97       <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">prefix:sal-netconf-connector</type>
98       <name>new-netconf-device</name>
99       <address xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">127.0.0.1</address>
100       <port xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">830</port>
101       <username xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">admin</username>
102       <password xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">admin</password>
103       <tcp-only xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">false</tcp-only>
104       <event-executor xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">
105         <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:netty">prefix:netty-event-executor</type>
106         <name>global-event-executor</name>
107       </event-executor>
108       <binding-registry xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">
109         <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:md:sal:binding">prefix:binding-broker-osgi-registry</type>
110         <name>binding-osgi-broker</name>
111       </binding-registry>
112       <dom-registry xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">
113         <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:md:sal:dom">prefix:dom-broker-osgi-registry</type>
114         <name>dom-broker</name>
115       </dom-registry>
116       <client-dispatcher xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">
117         <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:config:netconf">prefix:netconf-client-dispatcher</type>
118         <name>global-netconf-dispatcher</name>
119       </client-dispatcher>
120       <processing-executor xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">
121         <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:threadpool">prefix:threadpool</type>
122         <name>global-netconf-processing-executor</name>
123       </processing-executor>
124       <keepalive-executor xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">
125         <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:threadpool">prefix:scheduled-threadpool</type>
126         <name>global-netconf-ssh-scheduled-executor</name>
127       </keepalive-executor>
128     </module>
129
130 This spawns a new netconf-connector which tries to connect to (or mount)
131 a NETCONF device at 127.0.0.1 and port 830. You can check the
132 configuration of config-subsystem’s configuration datastore. The new
133 netconf-connector will now be present there. Just invoke:
134
135 GET
136 http://localhost:8181/restconf/config/network-topology:network-topology/topology/topology-netconf/node/controller-config/yang-ext:mount/config:modules
137
138 The response will contain the module for new-netconf-device.
139
140 Right after the new netconf-connector is created, it writes some useful
141 metadata into the datastore of MD-SAL under the network-topology
142 subtree. This metadata can be found at:
143
144 GET
145 http://localhost:8181/restconf/operational/network-topology:network-topology/
146
147 Information about connection status, device capabilities, etc. can be
148 found there.
149
150 Connecting to a device not supporting NETCONF monitoring
151 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
152
153 The netconf-connector in OpenDaylight relies on ietf-netconf-monitoring
154 support when connecting to remote NETCONF device. The
155 ietf-netconf-monitoring support allows netconf-connector to list and
156 download all YANG schemas that are used by the device. NETCONF connector
157 can only communicate with a device if it knows the set of used schemas
158 (or at least a subset). However, some devices use YANG models internally
159 but do not support NETCONF monitoring. Netconf-connector can also
160 communicate with these devices, but you have to side load the necessary
161 yang models into OpenDaylight’s YANG model cache for netconf-connector.
162 In general there are 2 situations you might encounter:
163
164 **1. NETCONF device does not support ietf-netconf-monitoring but it does
165 list all its YANG models as capabilities in HELLO message**
166
167 This could be a device that internally uses only ietf-inet-types YANG
168 model with revision 2010-09-24. In the HELLO message that is sent from
169 this device there is this capability reported:
170
171 ::
172
173     urn:ietf:params:xml:ns:yang:ietf-inet-types?module=ietf-inet-types&revision=2010-09-24
174
175 **For such devices you only need to put the schema into folder
176 cache/schema inside your Karaf distribution.**
177
178 .. important::
179
180     The file with YANG schema for ietf-inet-types has to be called
181     ietf-inet-types@2010-09-24.yang. It is the required naming format of
182     the cache.
183
184 **2. NETCONF device does not support ietf-netconf-monitoring and it does
185 NOT list its YANG models as capabilities in HELLO message**
186
187 Compared to device that lists its YANG models in HELLO message, in this
188 case there would be no capability with ietf-inet-types in the HELLO
189 message. This type of device basically provides no information about the
190 YANG schemas it uses so its up to the user of OpenDaylight to properly
191 configure netconf-connector for this device.
192
193 Netconf-connector has an optional configuration attribute called
194 yang-module-capabilities and this attribute can contain a list of "YANG
195 module based" capabilities. So by setting this configuration attribute,
196 it is possible to override the "yang-module-based" capabilities reported
197 in HELLO message of the device. To do this, we need to modify the
198 configuration of netconf-connector by adding this XML (It needs to be
199 added next to the address, port, username etc. configuration elements):
200
201 ::
202
203     <yang-module-capabilities xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">
204       <capability xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">
205         urn:ietf:params:xml:ns:yang:ietf-inet-types?module=ietf-inet-types&amp;revision=2010-09-24
206       </capability>
207     </yang-module-capabilities>
208
209 **Remember to also put the YANG schemas into the cache folder.**
210
211 .. note::
212
213     For putting multiple capabilities, you just need to replicate the
214     capability xml element inside yang-module-capability element.
215     Capability element is modeled as a leaf-list. With this
216     configuration, we would make the remote device report usage of
217     ietf-inet-types in the eyes of netconf-connector.
218
219 Reconfiguring Netconf-Connector While the Controller is Running
220 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
221
222 It is possible to change the configuration of a running module while the
223 whole controller is running. This example will continue where the last
224 left off and will change the configuration for the brand new
225 netconf-connector after it was spawned. Using one RESTCONF request, we
226 will change both username and password for the netconf-connector.
227
228 To update an existing netconf-connector you need to send following
229 request to RESTCONF:
230
231 PUT
232 http://localhost:8181/restconf/config/network-topology:network-topology/topology/topology-netconf/node/controller-config/yang-ext:mount/config:modules/module/odl-sal-netconf-connector-cfg:sal-netconf-connector/new-netconf-device
233
234 ::
235
236     <module xmlns="urn:opendaylight:params:xml:ns:yang:controller:config">
237       <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">prefix:sal-netconf-connector</type>
238       <name>new-netconf-device</name>
239       <username xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">bob</username>
240       <password xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">passwd</password>
241       <tcp-only xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">false</tcp-only>
242       <event-executor xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">
243         <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:netty">prefix:netty-event-executor</type>
244         <name>global-event-executor</name>
245       </event-executor>
246       <binding-registry xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">
247         <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:md:sal:binding">prefix:binding-broker-osgi-registry</type>
248         <name>binding-osgi-broker</name>
249       </binding-registry>
250       <dom-registry xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">
251         <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:md:sal:dom">prefix:dom-broker-osgi-registry</type>
252         <name>dom-broker</name>
253       </dom-registry>
254       <client-dispatcher xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">
255         <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:config:netconf">prefix:netconf-client-dispatcher</type>
256         <name>global-netconf-dispatcher</name>
257       </client-dispatcher>
258       <processing-executor xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">
259         <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:threadpool">prefix:threadpool</type>
260         <name>global-netconf-processing-executor</name>
261       </processing-executor>
262       <keepalive-executor xmlns="urn:opendaylight:params:xml:ns:yang:controller:md:sal:connector:netconf">
263         <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:threadpool">prefix:scheduled-threadpool</type>
264         <name>global-netconf-ssh-scheduled-executor</name>
265       </keepalive-executor>
266     </module>
267
268 Since a PUT is a replace operation, the whole configuration must be
269 specified along with the new values for username and password. This
270 should result in a 2xx response and the instance of netconf-connector
271 called new-netconf-device will be reconfigured to use username bob and
272 password passwd. New configuration can be verified by executing:
273
274 GET
275 http://localhost:8181/restconf/config/network-topology:network-topology/topology/topology-netconf/node/controller-config/yang-ext:mount/config:modules/module/odl-sal-netconf-connector-cfg:sal-netconf-connector/new-netconf-device
276
277 With new configuration, the old connection will be closed and a new one
278 established.
279
280 Destroying Netconf-Connector While the Controller is Running
281 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
282
283 Using RESTCONF one can also destroy an instance of a module. In case of
284 netconf-connector, the module will be destroyed, NETCONF connection
285 dropped and all resources will be cleaned. To do this, simply issue a
286 request to following URL:
287
288 DELETE
289 http://localhost:8181/restconf/config/network-topology:network-topology/topology/topology-netconf/node/controller-config/yang-ext:mount/config:modules/module/odl-sal-netconf-connector-cfg:sal-netconf-connector/new-netconf-device
290
291 The last element of the URL is the name of the instance and its
292 predecessor is the type of that module (In our case the type is
293 **sal-netconf-connector** and name **new-netconf-device**). The type and
294 name are actually the keys of the module list.
295
296 Netconf-connector configuration with MD-SAL
297 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
298
299 It is also possible to configure new NETCONF connectors directly through
300 MD-SAL with the usage of the network-topology model. You can configure
301 new NETCONF connectors both through the NETCONF server for MD-SAL (port
302 2830) or RESTCONF. This guide focuses on RESTCONF.
303
304 .. tip::
305
306     To enable NETCONF connector configuration through MD-SAL install
307     either the ``odl-netconf-topology`` or
308     ``odl-netconf-clustered-topology`` feature. We will explain the
309     difference between these features later.
310
311 Preconditions
312 ^^^^^^^^^^^^^
313
314 1. OpenDaylight is running
315
316 2. In Karaf, you must have the ``odl-netconf-topology`` or
317    ``odl-netconf-clustered-topology`` feature installed.
318
319 3. Feature ``odl-restconf`` must be installed
320
321 4. Wait until log displays following entry:
322
323    ::
324
325        Successfully pushed configuration snapshot 02-netconf-topology.xml(odl-netconf-topology,odl-netconf-topology)
326
327    or until
328
329    ::
330
331        GET http://localhost:8181/restconf/operational/network-topology:network-topology/topology/topology-netconf/
332
333    returns a non-empty response, for example:
334
335    ::
336
337        <topology xmlns="urn:TBD:params:xml:ns:yang:network-topology">
338          <topology-id>topology-netconf</topology-id>
339        </topology>
340
341 Spawning new NETCONF connectors
342 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
343
344 To create a new NETCONF connector you need to send the following request
345 to RESTCONF:
346
347 ::
348
349     PUT http://localhost:8181/restconf/config/network-topology:network-topology/topology/topology-netconf/node/new-netconf-device
350
351 Headers:
352
353 -  Accept: application/xml
354
355 -  Content-Type: application/xml
356
357 Payload:
358
359 ::
360
361     <node xmlns="urn:TBD:params:xml:ns:yang:network-topology">
362       <node-id>new-netconf-device</node-id>
363       <host xmlns="urn:opendaylight:netconf-node-topology">127.0.0.1</host>
364       <port xmlns="urn:opendaylight:netconf-node-topology">17830</port>
365       <username xmlns="urn:opendaylight:netconf-node-topology">admin</username>
366       <password xmlns="urn:opendaylight:netconf-node-topology">admin</password>
367       <tcp-only xmlns="urn:opendaylight:netconf-node-topology">false</tcp-only>
368       <!-- non-mandatory fields with default values, you can safely remove these if you do not wish to override any of these values-->
369       <reconnect-on-changed-schema xmlns="urn:opendaylight:netconf-node-topology">false</reconnect-on-changed-schema>
370       <connection-timeout-millis xmlns="urn:opendaylight:netconf-node-topology">20000</connection-timeout-millis>
371       <max-connection-attempts xmlns="urn:opendaylight:netconf-node-topology">0</max-connection-attempts>
372       <between-attempts-timeout-millis xmlns="urn:opendaylight:netconf-node-topology">2000</between-attempts-timeout-millis>
373       <sleep-factor xmlns="urn:opendaylight:netconf-node-topology">1.5</sleep-factor>
374       <!-- keepalive-delay set to 0 turns off keepalives-->
375       <keepalive-delay xmlns="urn:opendaylight:netconf-node-topology">120</keepalive-delay>
376     </node>
377
378 Note that the device name in <node-id> element must match the last
379 element of the restconf URL.
380
381 Reconfiguring an existing connector
382 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
383
384 The steps to reconfigure an existing connector are exactly the same as
385 when spawning a new connector. The old connection will be disconnected
386 and a new connector with the new configuration will be created.
387
388 Deleting an existing connector
389 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
390
391 To remove an already configured NETCONF connector you need to send the
392 following:
393
394 ::
395
396     DELETE http://localhost:8181/restconf/config/network-topology:network-topology/topology/topology-netconf/node/new-netconf-device
397
398 Connecting to a device supporting only NETCONF 1.0
399 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
400
401 OpenDaylight is schema-based distribution and heavily depends on YANG
402 models. However some legacy NETCONF devices are not schema-based and
403 implement just RFC 4741. This type of device does not utilize YANG
404 models internally and OpenDaylight does not know how to communicate
405 with such devices, how to validate data, or what the semantics of data
406 are.
407
408 NETCONF connector can communicate also with these devices, but the
409 trade-offs are worsened possibilities in utilization of NETCONF
410 mountpoints. Using RESTCONF with such devices is not suported. Also
411 communicating with schemaless devices from application code is slightly
412 different.
413
414 To connect to schemaless device, there is a optional configuration option
415 in netconf-node-topology model called schemaless. You have to set this
416 option to true.
417
418 Clustered NETCONF connector
419 ~~~~~~~~~~~~~~~~~~~~~~~~~~~
420
421 To spawn NETCONF connectors that are cluster-aware you need to install
422 the ``odl-netconf-clustered-topology`` karaf feature.
423
424 .. warning::
425
426     The ``odl-netconf-topology`` and ``odl-netconf-clustered-topology``
427     features are considered **INCOMPATIBLE**. They both manage the same
428     space in the datastore and would issue conflicting writes if
429     installed together.
430
431 Configuration of clustered NETCONF connectors works the same as the
432 configuration through the topology model in the previous section.
433
434 When a new clustered connector is configured the configuration gets
435 distributed among the member nodes and a NETCONF connector is spawned on
436 each node. From these nodes a master is chosen which handles the schema
437 download from the device and all the communication with the device. You
438 will be able to read/write to/from the device from all slave nodes due
439 to the proxy data brokers implemented.
440
441 You can use the ``odl-netconf-clustered-topology`` feature in a single
442 node scenario as well but the code that uses akka will be used, so for a
443 scenario where only a single node is used, ``odl-netconf-topology``
444 might be preferred.
445
446 Netconf-connector utilization
447 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
448
449 Once the connector is up and running, users can utilize the new mount
450 point instance. By using RESTCONF or from their application code. This
451 chapter deals with using RESTCONF and more information for app
452 developers can be found in the developers guide or in the official
453 tutorial application **ncmount** that can be found in the coretutorials
454 project:
455
456 -  https://github.com/opendaylight/coretutorials/tree/stable/beryllum/ncmount
457
458 Reading data from the device
459 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^
460
461 Just invoke (no body needed):
462
463 GET
464 http://localhost:8080/restconf/operational/network-topology:network-topology/topology/topology-netconf/node/new-netconf-device/yang-ext:mount/
465
466 This will return the entire content of operation datastore from the
467 device. To view just the configuration datastore, change **operational**
468 in this URL to **config**.
469
470 Writing configuration data to the device
471 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
472
473 In general, you cannot simply write any data you want to the device. The
474 data have to conform to the YANG models implemented by the device. In
475 this example we are adding a new interface-configuration to the mounted
476 device (assuming the device supports Cisco-IOS-XR-ifmgr-cfg YANG model).
477 In fact this request comes from the tutorial dedicated to the
478 **ncmount** tutorial app.
479
480 POST
481 http://localhost:8181/restconf/config/network-topology:network-topology/topology/topology-netconf/node/new-netconf-device/yang-ext:mount/Cisco-IOS-XR-ifmgr-cfg:interface-configurations
482
483 ::
484
485     <interface-configuration xmlns="http://cisco.com/ns/yang/Cisco-IOS-XR-ifmgr-cfg">
486         <active>act</active>
487         <interface-name>mpls</interface-name>
488         <description>Interface description</description>
489         <bandwidth>32</bandwidth>
490         <link-status></link-status>
491     </interface-configuration>
492
493 Should return 200 response code with no body.
494
495 .. tip::
496
497     This call is transformed into a couple of NETCONF RPCs. Resulting
498     NETCONF RPCs that go directly to the device can be found in the
499     OpenDaylight logs after invoking ``log:set TRACE
500     org.opendaylight.controller.sal.connect.netconf`` in the Karaf
501     shell. Seeing the NETCONF RPCs might help with debugging.
502
503 This request is very similar to the one where we spawned a new netconf
504 device. That’s because we used the loopback netconf-connector to write
505 configuration data into config-subsystem datastore and config-subsystem
506 picked it up from there.
507
508 Invoking custom RPC
509 ^^^^^^^^^^^^^^^^^^^
510
511 Devices can implement any additional RPC and as long as it provides YANG
512 models for it, it can be invoked from OpenDaylight. Following example
513 shows how to invoke the get-schema RPC (get-schema is quite common among
514 netconf devices). Invoke:
515
516 POST
517 http://localhost:8181/restconf/operations/network-topology:network-topology/topology/topology-netconf/node/new-netconf-device/yang-ext:mount/ietf-netconf-monitoring:get-schema
518
519 ::
520
521     <input xmlns="urn:ietf:params:xml:ns:yang:ietf-netconf-monitoring">
522       <identifier>ietf-yang-types</identifier>
523       <version>2013-07-15</version>
524     </input>
525
526 This call should fetch the source for ietf-yang-types YANG model from
527 the mounted device.
528
529 Netconf-connector + Netopeer
530 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~
531
532 `Netopeer <https://github.com/cesnet/netopeer>`__ (an open-source
533 NETCONF server) can be used for testing/exploring NETCONF southbound in
534 OpenDaylight.
535
536 Netopeer installation
537 ^^^^^^^^^^^^^^^^^^^^^
538
539 A `Docker <https://www.docker.com/>`__ container with netopeer will be
540 used in this guide. To install Docker and start the `netopeer
541 image <https://index.docker.io/u/dockeruser/netopeer/>`__ perform
542 following steps:
543
544 1. Install docker http://docs.docker.com/linux/step_one/
545
546 2. Start the netopeer image:
547
548    ::
549
550        docker run -rm -t -p 1831:830 dockeruser/netopeer
551
552 3. Verify netopeer is running by invoking (netopeer should send its
553    HELLO message right away:
554
555    ::
556
557        ssh root@localhost -p 1831 -s netconf
558        (password root)
559
560 Mounting netopeer NETCONF server
561 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
562
563 Preconditions:
564
565 -  OpenDaylight is started with features ``odl-restconf-all`` and
566    ``odl-netconf-connector-all``.
567
568 -  Netopeer is up and running in docker
569
570 Now just follow the chapter: `Spawning
571 netconf-connector <#_spawning_additional_netconf_connectors_while_the_controller_is_running>`__.
572 In the payload change the:
573
574 -  name, e.g., to netopeer
575
576 -  username/password to your system credentials
577
578 -  ip to localhost
579
580 -  port to 1831.
581
582 After netopeer is mounted successfully, its configuration can be read
583 using RESTCONF by invoking:
584
585 GET
586 http://localhost:8181/restconf/config/network-topology:network-topology/topology/topology-netconf/node/netopeer/yang-ext:mount/
587
588 Northbound (NETCONF servers)
589 ----------------------------
590
591 OpenDaylight provides 2 types of NETCONF servers:
592
593 -  **NETCONF server for config-subsystem (listening by default on port
594    1830)**
595
596    -  Serves as a default interface for config-subsystem and allows
597       users to spawn/reconfigure/destroy modules (or applications) in
598       OpenDaylight
599
600 -  **NETCONF server for MD-SAL (listening by default on port 2830)**
601
602    -  Serves as an alternative interface for MD-SAL (besides RESTCONF)
603       and allows users to read/write data from MD-SAL’s datastore and to
604       invoke its rpcs (NETCONF notifications are not available in the
605       Boron release of OpenDaylight)
606
607 .. note::
608
609     The reason for having 2 NETCONF servers is that config-subsystem and
610     MD-SAL are 2 different components of OpenDaylight and require
611     different approach for NETCONF message handling and data
612     translation. These 2 components will probably merge in the future.
613
614 .. note::
615
616     Since Nitrogen release, there is performance regression in NETCONF
617     servers accepting SSH connections. While opening a connection takes
618     less than 10 seconds on Carbon, on Nitrogen time can increase up to
619     60 seconds. Please see https://bugs.opendaylight.org/show_bug.cgi?id=9020
620
621 NETCONF server for config-subsystem
622 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
623
624 This NETCONF server is the primary interface for config-subsystem. It
625 allows the users to interact with config-subsystem in a standardized
626 NETCONF manner.
627
628 In terms of RFCs, these are supported:
629
630 -  `RFC-6241 <http://tools.ietf.org/html/rfc6241>`__
631
632 -  `RFC-5277 <https://tools.ietf.org/html/rfc5277>`__
633
634 -  `RFC-6470 <https://tools.ietf.org/html/rfc6470>`__
635
636    -  (partially, only the schema-change notification is available in
637       Boron release)
638
639 -  `RFC-6022 <https://tools.ietf.org/html/rfc6022>`__
640
641 For regular users it is recommended to use RESTCONF + the
642 controller-config loopback mountpoint instead of using pure NETCONF. How
643 to do that is spesific for each component/module/application in
644 OpenDaylight and can be found in their dedicated user guides.
645
646 NETCONF server for MD-SAL
647 ~~~~~~~~~~~~~~~~~~~~~~~~~
648
649 This NETCONF server is just a generic interface to MD-SAL in
650 OpenDaylight. It uses the stadard MD-SAL APIs and serves as an
651 alternative to RESTCONF. It is fully model driven and supports any data
652 and rpcs that are supported by MD-SAL.
653
654 In terms of RFCs, these are supported:
655
656 -  `RFC-6241 <http://tools.ietf.org/html/rfc6241>`__
657
658 -  `RFC-6022 <https://tools.ietf.org/html/rfc6022>`__
659
660 -  `draft-ietf-netconf-yang-library-06 <https://tools.ietf.org/html/draft-ietf-netconf-yang-library-06>`__
661
662 Notifications over NETCONF are not supported in the Boron release.
663
664 .. tip::
665
666     Install NETCONF northbound for MD-SAL by installing feature:
667     ``odl-netconf-mdsal`` in karaf. Default binding port is **2830**.
668
669 Configuration
670 ^^^^^^^^^^^^^
671
672 The default configuration can be found in file: *08-netconf-mdsal.xml*.
673 The file contains the configuration for all necessary dependencies and a
674 single SSH endpoint starting on port 2830. There is also a (by default
675 disabled) TCP endpoint. It is possible to start multiple endpoints at
676 the same time either in the initial configuration file or while
677 OpenDaylight is running.
678
679 The credentials for SSH endpoint can also be configured here, the
680 defaults are admin/admin. Credentials in the SSH endpoint are not yet
681 managed by the centralized AAA component and have to be configured
682 separately.
683
684 Verifying MD-SAL’s NETCONF server
685 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
686
687 After the NETCONF server is available it can be examined by a command
688 line ssh tool:
689
690 ::
691
692     ssh admin@localhost -p 2830 -s netconf
693
694 The server will respond by sending its HELLO message and can be used as
695 a regular NETCONF server from then on.
696
697 Mounting the MD-SAL’s NETCONF server
698 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
699
700 To perform this operation, just spawn a new netconf-connector as
701 described in `Spawning
702 netconf-connector <#_spawning_additional_netconf_connectors_while_the_controller_is_running>`__.
703 Just change the ip to "127.0.0.1" port to "2830" and its name to
704 "controller-mdsal".
705
706 Now the MD-SAL’s datastore can be read over RESTCONF via NETCONF by
707 invoking:
708
709 GET
710 http://localhost:8181/restconf/operational/network-topology:network-topology/topology/topology-netconf/node/controller-mdsal/yang-ext:mount
711
712 .. note::
713
714     This might not seem very useful, since MD-SAL can be accessed
715     directly from RESTCONF or from Application code, but the same method
716     can be used to mount and control other OpenDaylight instances by the
717     "master OpenDaylight".
718
719 NETCONF testtool
720 ----------------
721
722 **NETCONF testtool is a set of standalone runnable jars that can:**
723
724 -  Simulate NETCONF devices (suitable for scale testing)
725
726 -  Stress/Performance test NETCONF devices
727
728 -  Stress/Performance test RESTCONF devices
729
730 These jars are part of OpenDaylight’s controller project and are built
731 from the NETCONF codebase in OpenDaylight.
732
733 .. tip::
734
735     Download testtool from OpenDaylight Nexus at:
736     https://nexus.opendaylight.org/content/repositories/public/org/opendaylight/netconf/netconf-testtool/1.1.0-Boron/
737
738 **Nexus contains 3 executable tools:**
739
740 -  executable.jar - device simulator
741
742 -  stress.client.tar.gz - NETCONF stress/performance measuring tool
743
744 -  perf-client.jar - RESTCONF stress/performance measuring tool
745
746 .. tip::
747
748     Each executable tool provides help. Just invoke ``java -jar
749     <name-of-the-tool.jar> --help``
750
751 NETCONF device simulator
752 ~~~~~~~~~~~~~~~~~~~~~~~~
753
754 NETCONF testtool (or NETCONF device simulator) is a tool that
755
756 -  Simulates 1 or more NETCONF devices
757
758 -  Is suitable for scale, performance or crud testing
759
760 -  Uses core implementation of NETCONF server from OpenDaylight
761
762 -  Generates configuration files for controller so that the OpenDaylight
763    distribution (Karaf) can easily connect to all simulated devices
764
765 -  Provides broad configuration options
766
767 -  Can start a fully fledged MD-SAL datastore
768
769 -  Supports notifications
770
771 Building testtool
772 ^^^^^^^^^^^^^^^^^
773
774 1. Check out latest NETCONF repository from
775    `git <https://git.opendaylight.org/gerrit/#/admin/projects/netconf>`__
776
777 2. Move into the ``opendaylight/netconf/tools/netconf-testtool/`` folder
778
779 3. Build testtool using the ``mvn clean install`` command
780
781 Downloading testtool
782 ^^^^^^^^^^^^^^^^^^^^
783
784 Netconf-testtool is now part of default maven build profile for
785 controller and can be also downloaded from nexus. The executable jar for
786 testtool can be found at:
787 `nexus-artifacts <https://nexus.opendaylight.org/content/repositories/public/org/opendaylight/netconf/netconf-testtool/1.1.0-Boron/>`__
788
789 Running testtool
790 ^^^^^^^^^^^^^^^^
791
792 1. After successfully building or downloading, move into the
793    ``opendaylight/netconf/tools/netconf-testtool/target/`` folder and
794    there is file ``netconf-testtool-1.1.0-SNAPSHOT-executable.jar`` (or
795    if downloaded from nexus just take that jar file)
796
797 2. Execute this file using, e.g.:
798
799    ::
800
801        java -jar netconf-testtool-1.1.0-SNAPSHOT-executable.jar
802
803    This execution runs the testtool with default for all parameters and
804    you should see this log output from the testtool :
805
806    ::
807
808        10:31:08.206 [main] INFO  o.o.c.n.t.t.NetconfDeviceSimulator - Starting 1, SSH simulated devices starting on port 17830
809        10:31:08.675 [main] INFO  o.o.c.n.t.t.NetconfDeviceSimulator - All simulated devices started successfully from port 17830 to 17830
810
811 Default Parameters
812 ''''''''''''''''''
813
814 The default parameters for testtool are:
815
816 -  Use SSH
817
818 -  Run 1 simulated device
819
820 -  Device port is 17830
821
822 -  YANG modules used by device are only: ietf-netconf-monitoring,
823    ietf-yang-types, ietf-inet-types (these modules are required for
824    device in order to support NETCONF monitoring and are included in the
825    netconf-testtool)
826
827 -  Connection timeout is set to 30 minutes (quite high, but when testing
828    with 10000 devices it might take some time for all of them to fully
829    establish a connection)
830
831 -  Debug level is set to false
832
833 -  No distribution is modified to connect automatically to the NETCONF
834    testtool
835
836 Verifying testtool
837 ^^^^^^^^^^^^^^^^^^
838
839 To verify that the simulated device is up and running, we can try to
840 connect to it using command line ssh tool. Execute this command to
841 connect to the device:
842
843 ::
844
845     ssh admin@localhost -p 17830 -s netconf
846
847 Just accept the server with yes (if required) and provide any password
848 (testtool accepts all users with all passwords). You should see the
849 hello message sent by simulated device.
850
851 Testtool help
852 ^^^^^^^^^^^^^
853
854 ::
855
856     usage: netconf testool [-h] [--device-count DEVICES-COUNT] [--devices-per-port DEVICES-PER-PORT] [--schemas-dir SCHEMAS-DIR] [--notification-file NOTIFICATION-FILE]
857                            [--initial-config-xml-file INITIAL-CONFIG-XML-FILE] [--starting-port STARTING-PORT] [--generate-config-connection-timeout GENERATE-CONFIG-CONNECTION-TIMEOUT]
858                            [--generate-config-address GENERATE-CONFIG-ADDRESS] [--generate-configs-batch-size GENERATE-CONFIGS-BATCH-SIZE] [--distribution-folder DISTRO-FOLDER] [--ssh SSH] [--exi EXI]
859                            [--debug DEBUG] [--md-sal MD-SAL]
860
861     NETCONF device simulator. Detailed info can be found at https://wiki.opendaylight.org/view/OpenDaylight_Controller:Netconf:Testtool#Building_testtool
862
863     optional arguments:
864       -h, --help             show this help message and exit
865       --device-count DEVICES-COUNT
866                              Number of simulated netconf devices to spin. This is the number of actual ports open for the devices.
867       --devices-per-port DEVICES-PER-PORT
868                              Amount of config files generated per port to spoof more devices than are actually running
869       --schemas-dir SCHEMAS-DIR
870                              Directory containing yang schemas to describe simulated devices. Some schemas e.g. netconf monitoring and inet types are included by default
871       --notification-file NOTIFICATION-FILE
872                              Xml file containing notifications that should be sent to clients after create subscription is called
873       --initial-config-xml-file INITIAL-CONFIG-XML-FILE
874                              Xml file containing initial simulatted configuration to be returned via get-config rpc
875       --starting-port STARTING-PORT
876                              First port for simulated device. Each other device will have previous+1 port number
877       --generate-config-connection-timeout GENERATE-CONFIG-CONNECTION-TIMEOUT
878                              Timeout to be generated in initial config files
879       --generate-config-address GENERATE-CONFIG-ADDRESS
880                              Address to be placed in generated configs
881       --generate-configs-batch-size GENERATE-CONFIGS-BATCH-SIZE
882                              Number of connector configs per generated file
883       --distribution-folder DISTRO-FOLDER
884                              Directory where the karaf distribution for controller is located
885       --ssh SSH              Whether to use ssh for transport or just pure tcp
886       --exi EXI              Whether to use exi to transport xml content
887       --debug DEBUG          Whether to use debug log level instead of INFO
888       --md-sal MD-SAL        Whether to use md-sal datastore instead of default simulated datastore.
889
890 Supported operations
891 ^^^^^^^^^^^^^^^^^^^^
892
893 Testtool default simple datastore supported operations:
894
895 get-schema
896     returns YANG schemas loaded from user specified directory,
897
898 edit-config
899     always returns OK and stores the XML from the input in a local
900     variable available for get-config and get RPC. Every edit-config
901     replaces the previous data,
902
903 commit
904     always returns OK, but does not actually commit the data,
905
906 get-config
907     returns local XML stored by edit-config,
908
909 get
910     returns local XML stored by edit-config with netconf-state subtree,
911     but also supports filtering.
912
913 (un)lock
914     returns always OK with no lock guarantee
915
916 create-subscription
917     returns always OK and after the operation is triggered, provided
918     NETCONF notifications (if any) are fed to the client. No filtering
919     or stream recognition is supported.
920
921 Note: when operation="delete" is present in the payload for edit-config,
922 it will wipe its local store to simulate the removal of data.
923
924 When using the MD-SAL datastore testtool behaves more like normal
925 NETCONF server and is suitable for crud testing. create-subscription is
926 not supported when testtool is running with the MD-SAL datastore.
927
928 Notification support
929 ^^^^^^^^^^^^^^^^^^^^
930
931 Testtool supports notifications via the --notification-file switch. To
932 trigger the notification feed, create-subscription operation has to be
933 invoked. The XML file provided should look like this example file:
934
935 ::
936
937     <?xml version='1.0' encoding='UTF-8' standalone='yes'?>
938     <notifications>
939
940     <!-- Notifications are processed in the order they are defined in XML -->
941
942     <!-- Notification that is sent only once right after create-subscription is called -->
943     <notification>
944         <!-- Content of each notification entry must contain the entire notification with event time. Event time can be hardcoded, or generated by testtool if XXXX is set as eventtime in this XML -->
945         <content><![CDATA[
946             <notification xmlns="urn:ietf:params:xml:ns:netconf:notification:1.0">
947                 <eventTime>2011-01-04T12:30:46</eventTime>
948                 <random-notification xmlns="http://www.opendaylight.org/netconf/event:1.0">
949                     <random-content>single no delay</random-content>
950                 </random-notification>
951             </notification>
952         ]]></content>
953     </notification>
954
955     <!-- Repeated Notification that is sent 5 times with 2 second delay inbetween -->
956     <notification>
957         <!-- Delay in seconds from previous notification -->
958         <delay>2</delay>
959         <!-- Number of times this notification should be repeated -->
960         <times>5</times>
961         <content><![CDATA[
962             <notification xmlns="urn:ietf:params:xml:ns:netconf:notification:1.0">
963                 <eventTime>XXXX</eventTime>
964                 <random-notification xmlns="http://www.opendaylight.org/netconf/event:1.0">
965                     <random-content>scheduled 5 times 10 seconds each</random-content>
966                 </random-notification>
967             </notification>
968         ]]></content>
969     </notification>
970
971     <!-- Single notification that is sent only once right after the previous notification -->
972     <notification>
973         <delay>2</delay>
974         <content><![CDATA[
975             <notification xmlns="urn:ietf:params:xml:ns:netconf:notification:1.0">
976                 <eventTime>XXXX</eventTime>
977                 <random-notification xmlns="http://www.opendaylight.org/netconf/event:1.0">
978                     <random-content>single with delay</random-content>
979                 </random-notification>
980             </notification>
981         ]]></content>
982     </notification>
983
984     </notifications>
985
986 Connecting testtool with controller Karaf distribution
987 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
988
989 Auto connect to OpenDaylight
990 ''''''''''''''''''''''''''''
991
992 It is possible to make OpenDaylight auto connect to the simulated
993 devices spawned by testtool (so user does not have to post a
994 configuration for every NETCONF connector via RESTCONF). The testtool is
995 able to modify the OpenDaylight distribution to auto connect to the
996 simulated devices after feature ``odl-netconf-connector-all`` is
997 installed. When running testtool, issue this command (just point the
998 testool to the distribution:
999
1000 ::
1001
1002     java -jar netconf-testtool-1.1.0-SNAPSHOT-executable.jar --device-count 10 --distribution-folder ~/distribution-karaf-0.4.0-SNAPSHOT/ --debug true
1003
1004 With the distribution-folder parameter, the testtool will modify the
1005 distribution to include configuration for netconf-connector to connect
1006 to all simulated devices. So there is no need to spawn
1007 netconf-connectors via RESTCONF.
1008
1009 Running testtool and OpenDaylight on different machines
1010 '''''''''''''''''''''''''''''''''''''''''''''''''''''''
1011
1012 The testtool binds by default to 0.0.0.0 so it should be accessible from
1013 remote machines. However you need to set the parameter
1014 "generate-config-address" (when using autoconnect) to the address of
1015 machine where testtool will be run so OpenDaylight can connect. The
1016 default value is localhost.
1017
1018 Executing operations via RESTCONF on a mounted simulated device
1019 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
1020
1021 Simulated devices support basic RPCs for editing their config. This part
1022 shows how to edit data for simulated device via RESTCONF.
1023
1024 Test YANG schema
1025 ''''''''''''''''
1026
1027 The controller and RESTCONF assume that the data that can be manipulated
1028 for mounted device is described by a YANG schema. For demonstration, we
1029 will define a simple YANG model:
1030
1031 ::
1032
1033     module test {
1034         yang-version 1;
1035         namespace "urn:opendaylight:test";
1036         prefix "tt";
1037
1038         revision "2014-10-17";
1039
1040
1041        container cont {
1042
1043             leaf l {
1044                 type string;
1045             }
1046        }
1047     }
1048
1049 Save this schema in file called test@2014-10-17.yang and store it a
1050 directory called test-schemas/, e.g., your home folder.
1051
1052 Editing data for simulated device
1053 '''''''''''''''''''''''''''''''''
1054
1055 -  Start the device with following command:
1056
1057    ::
1058
1059        java -jar netconf-testtool-1.1.0-SNAPSHOT-executable.jar --device-count 10 --distribution-folder ~/distribution-karaf-0.4.0-SNAPSHOT/ --debug true --schemas-dir ~/test-schemas/
1060
1061 -  Start OpenDaylight
1062
1063 -  Install odl-netconf-connector-all feature
1064
1065 -  Install odl-restconf feature
1066
1067 -  Check that you can see config data for simulated device by executing
1068    GET request to
1069
1070    ::
1071
1072        http://localhost:8181/restconf/config/network-topology:network-topology/topology/topology-netconf/node/17830-sim-device/yang-ext:mount/
1073
1074 -  The data should be just and empty data container
1075
1076 -  Now execute edit-config request by executing a POST request to:
1077
1078    ::
1079
1080        http://localhost:8181/restconf/config/network-topology:network-topology/topology/topology-netconf/node/17830-sim-device/yang-ext:mount
1081
1082    with headers:
1083
1084    ::
1085
1086        Accept application/xml
1087        Content-Type application/xml
1088
1089    and payload:
1090
1091    ::
1092
1093        <cont xmlns="urn:opendaylight:test">
1094          <l>Content</l>
1095        </cont>
1096
1097 -  Check that you can see modified config data for simulated device by
1098    executing GET request to
1099
1100    ::
1101
1102        http://localhost:8181/restconf/config/network-topology:network-topology/topology/topology-netconf/node/17830-sim-device/yang-ext:mount/
1103
1104 -  Check that you can see the same modified data in operational for
1105    simulated device by executing GET request to
1106
1107    ::
1108
1109        http://localhost:8181/restconf/operational/network-topology:network-topology/topology/topology-netconf/node/17830-sim-device/yang-ext:mount/
1110
1111 .. warning::
1112
1113     Data will be mirrored in operational datastore only when using the
1114     default simple datastore.
1115
1116 Known problems
1117 ^^^^^^^^^^^^^^
1118
1119 Slow creation of devices on virtual machines
1120 ''''''''''''''''''''''''''''''''''''''''''''
1121
1122 When testtool seems to take unusually long time to create the devices
1123 use this flag when running it:
1124
1125 ::
1126
1127     -Dorg.apache.sshd.registerBouncyCastle=false
1128
1129 Too many files open
1130 '''''''''''''''''''
1131
1132 When testtool or OpenDaylight starts to fail with TooManyFilesOpen
1133 exception, you need to increase the limit of open files in your OS. To
1134 find out the limit in linux execute:
1135
1136 ::
1137
1138     ulimit -a
1139
1140 Example sufficient configuration in linux:
1141
1142 ::
1143
1144     core file size          (blocks, -c) 0
1145     data seg size           (kbytes, -d) unlimited
1146     scheduling priority             (-e) 0
1147     file size               (blocks, -f) unlimited
1148     pending signals                 (-i) 63338
1149     max locked memory       (kbytes, -l) 64
1150     max memory size         (kbytes, -m) unlimited
1151     open files                      (-n) 500000
1152     pipe size            (512 bytes, -p) 8
1153     POSIX message queues     (bytes, -q) 819200
1154     real-time priority              (-r) 0
1155     stack size              (kbytes, -s) 8192
1156     cpu time               (seconds, -t) unlimited
1157     max user processes              (-u) 63338
1158     virtual memory          (kbytes, -v) unlimited
1159     file locks                      (-x) unlimited
1160
1161 To set these limits edit file: /etc/security/limits.conf, for example:
1162
1163 ::
1164
1165     *         hard    nofile      500000
1166     *         soft    nofile      500000
1167     root      hard    nofile      500000
1168     root      soft    nofile      500000
1169
1170 "Killed"
1171 ''''''''
1172
1173 The testtool might end unexpectedly with a simple message: "Killed".
1174 This means that the OS killed the tool due to too much memory consumed
1175 or too many threads spawned. To find out the reason on linux you can use
1176 following command:
1177
1178 ::
1179
1180     dmesg | egrep -i -B100 'killed process'
1181
1182 Also take a look at this file: /proc/sys/kernel/threads-max. It limits
1183 the number of threads spawned by a process. Sufficient (but probably
1184 much more than enough) value is, e.g., 126676
1185
1186 NETCONF stress/performance measuring tool
1187 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
1188
1189 This is basically a NETCONF client that puts NETCONF servers under heavy
1190 load of NETCONF RPCs and measures the time until a configurable amount
1191 of them is processed.
1192
1193 RESTCONF stress-performance measuring tool
1194 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
1195
1196 Very similar to NETCONF stress tool with the difference of using
1197 RESTCONF protocol instead of NETCONF.
1198
1199 YANGLIB remote repository
1200 -------------------------
1201
1202 There are scenarios in NETCONF deployment, that require for a centralized
1203 YANG models repository. YANGLIB plugin provides such remote repository.
1204
1205 To start this plugin, you have to install odl-yanglib feature. Then you
1206 have to configure YANGLIB either through RESTCONF or NETCONF. We will
1207 show how to configure YANGLIB through RESTCONF.
1208
1209 YANGLIB configuration through RESTCONF
1210 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
1211
1212 You have to specify what local YANG modules directory you want to provide.
1213 Then you have to specify address and port whre you want to provide YANG
1214 sources. For example, we want to serve yang sources from folder /sources
1215 on localhost:5000 adress. The configuration for this scenario will be
1216 as follows:
1217
1218 ::
1219
1220     PUT  http://localhost:8181/restconf/config/network-topology:network-topology/topology/topology-netconf/node/controller-config/yang-ext:mount/config:modules/module/yanglib:yanglib/example
1221
1222 Headers:
1223
1224 -  Accept: application/xml
1225
1226 -  Content-Type: application/xml
1227
1228 Payload:
1229
1230 ::
1231
1232    <module xmlns="urn:opendaylight:params:xml:ns:yang:controller:config">
1233      <name>example</name>
1234      <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:yanglib:impl">prefix:yanglib</type>
1235      <broker xmlns="urn:opendaylight:params:xml:ns:yang:controller:yanglib:impl">
1236        <type xmlns:prefix="urn:opendaylight:params:xml:ns:yang:controller:md:sal:binding">prefix:binding-broker-osgi-registry</type>
1237        <name>binding-osgi-broker</name>
1238      </broker>
1239      <cache-folder xmlns="urn:opendaylight:params:xml:ns:yang:controller:yanglib:impl">/sources</cache-folder>
1240      <binding-addr xmlns="urn:opendaylight:params:xml:ns:yang:controller:yanglib:impl">localhost</binding-addr>
1241      <binding-port xmlns="urn:opendaylight:params:xml:ns:yang:controller:yanglib:impl">5000</binding-port>
1242    </module>
1243
1244 This should result in a 2xx response and new YANGLIB instance should be
1245 created. This YANGLIB takes all YANG sources from /sources folder and
1246 for each generates URL in form:
1247
1248 ::
1249
1250     http://localhost:5000/schemas/{modelName}/{revision}
1251
1252 On this URL will be hosted YANG source for particular module.
1253
1254 YANGLIB instance also write this URL along with source identifier to
1255 ietf-netconf-yang-library/modules-state/module list.
1256
1257 Netconf-connector with YANG library as fallback
1258 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
1259
1260 There is an optional configuration in netconf-connector called
1261 yang-library. You can specify YANG library to be plugged as additional
1262 source provider into the mount's schema repository. Since YANGLIB
1263 plugin is advertising provided modules through yang-library model, we
1264 can use it in mount point's configuration as YANG library.  To do this,
1265 we need to modify the configuration of netconf-connector by adding this
1266 XML
1267
1268 ::
1269
1270     <yang-library xmlns="urn:opendaylight:netconf-node-topology">
1271       <yang-library-url xmlns="urn:opendaylight:netconf-node-topology">http://localhost:8181/restconf/operational/ietf-yang-library:modules-state</yang-library-url>
1272       <username xmlns="urn:opendaylight:netconf-node-topology">admin</username>
1273       <password xmlns="urn:opendaylight:netconf-node-topology">admin</password>
1274     </yang-library>
1275
1276 This will register YANGLIB provided sources as a fallback schemas for
1277 particular mount point.
1278
1279 NETCONF Call Home
1280 -----------------
1281
1282 .. important::
1283
1284     The call home feature is experimental and will change in a future
1285     release. In particular, the Yang models will change to those specified
1286     in the `RFC 8071 <https://tools.ietf.org/html/rfc8071>`__
1287
1288 Call Home Installation
1289 ~~~~~~~~~~~~~~~~~~~~~~
1290
1291 ODL Call-Home server is installed in Karaf by installing karaf feature
1292 ``odl-netconf-callhome-ssh``. RESTCONF feature is recommended for
1293 configuring Call Home & testing its functionality.
1294
1295 ::
1296
1297   feature:install odl-netconf-callhome-ssh
1298
1299
1300 .. note::
1301
1302     In order to test Call Home functionality we recommend Netopeer.
1303     See `Netopeer Call Home <https://github.com/CESNET/netopeer/wiki/CallHome>`__ to learn how to enable call-home on Netopeer.
1304
1305 Northbound Call-Home API
1306 ~~~~~~~~~~~~~~~~~~~~~~~~
1307
1308 The northbound Call Home API is used for administering the Call-Home Server. The
1309 following describes this configuration.
1310
1311 Global Configuration
1312 ^^^^^^^^^^^^^^^^^^^^
1313
1314 Configuring global credentials
1315 ''''''''''''''''''''''''''''''
1316
1317 ODL Call-Home server allows user to configure global credentials, which
1318 will be used for devices which does not have device-specific credentials
1319 configured.
1320
1321 This is done by creating
1322 ``/odl-netconf-callhome-server:netconf-callhome-server/global/credentials``
1323 with username and passwords specified.
1324
1325 *Configuring global username & passwords to try*
1326
1327 .. code-block:: none
1328
1329     PUT
1330     /restconf/config/odl-netconf-callhome-server:netconf-callhome-server/global/credentials HTTP/1.1
1331     Content-Type: application/json
1332     Accept: application/json
1333
1334 .. code-block:: json
1335
1336     {
1337       "credentials":
1338       {
1339         "username": "example",
1340         "passwords": [ "first-password-to-try", "second-password-to-try" ]
1341       }
1342     }
1343
1344 Configuring to accept any ssh server key using global credentials
1345 '''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''
1346
1347 By default Netconf Call-Home Server accepts only incoming connections
1348 from allowed devices
1349 ``/odl-netconf-callhome-server:netconf-callhome-server/allowed-devices``,
1350 if user desire to allow all incoming connections, it is possible to set
1351 ``accept-all-ssh-keys`` to ``true`` in
1352 ``/odl-netconf-callhome-server:netconf-callhome-server/global``.
1353
1354 The name of this devices in ``netconf-topology`` will be in format
1355 ``ip-address:port``. For naming devices see Device-Specific
1356 Configuration.
1357
1358 *Allowing unknown devices to connect*
1359
1360 This is a debug feature and should not be used in production. Besides being an obvious
1361 security issue, this also causes the Call-Home Server to drastically increase its output
1362 to the log.
1363
1364 .. code-block:: none
1365
1366     POST
1367     /restconf/config/odl-netconf-callhome-server:netconf-callhome-server/global HTTP/1.1
1368     Content-Type: application/json
1369     Accept: application/json
1370
1371 .. code-block:: json
1372
1373     {
1374       "global": {
1375         "accept-all-ssh-keys": "true"
1376       }
1377     }
1378
1379 Device-Specific Configuration
1380 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
1381
1382 Allowing Device & Configuring Name
1383 ''''''''''''''''''''''''''''''''''
1384
1385 Netconf Call Home Server uses device provided SSH server key (host key)
1386 to identify device. The pairing of name and server key is configured in
1387 ``/odl-netconf-callhome-server:netconf-callhome-server/allowed-devices``.
1388 This list is colloquially called a whitelist.
1389
1390 If the Call-Home Server finds the SSH host key in the whitelist, it continues
1391 to negotiate a NETCONF connection over an SSH session. If the SSH host key is
1392 not found, the connection between the Call Home server and the device is dropped
1393 immediately. In either case, the device that connects to the Call home server
1394 leaves a record of its presence in the operational store.
1395
1396 *Example of configuring device*
1397
1398 .. code-block:: none
1399
1400     PUT
1401     /restconf/config/odl-netconf-callhome-server:netconf-callhome-server/allowed-devices/device/example HTTP/1.1
1402     Content-Type: application/json
1403     Accept: application/json
1404
1405 .. code-block:: json
1406
1407     {
1408       "device": {
1409         "unique-id": "example",
1410         "ssh-host-key": "AAAAB3NzaC1yc2EAAAADAQABAAABAQDHoH1jMjltOJnCt999uaSfc48ySutaD3ISJ9fSECe1Spdq9o9mxj0kBTTTq+2V8hPspuW75DNgN+V/rgJeoUewWwCAasRx9X4eTcRrJrwOQKzb5Fk+UKgQmenZ5uhLAefi2qXX/agFCtZi99vw+jHXZStfHm9TZCAf2zi+HIBzoVksSNJD0VvPo66EAvLn5qKWQD4AdpQQbKqXRf5/W8diPySbYdvOP2/7HFhDukW8yV/7ZtcywFUIu3gdXsrzwMnTqnATSLPPuckoi0V2jd8dQvEcu1DY+rRqmqu0tEkFBurlRZDf1yhNzq5xWY3OXcjgDGN+RxwuWQK3cRimcosH"
1411       }
1412     }
1413
1414 Configuring Device with Device-specific Credentials
1415 '''''''''''''''''''''''''''''''''''''''''''''''''''
1416
1417 Call Home Server also allows to configure credentials per device basis,
1418 this is done by introducing ``credentials`` container into
1419 device-specific configuration. Format is same as in global credentials.
1420
1421 *Configuring Device with Credentials*
1422
1423 .. code-block:: none
1424
1425     PUT
1426     /restconf/config/odl-netconf-callhome-server:netconf-callhome-server/allowed-devices/device/example HTTP/1.1
1427     Content-Type: application/json
1428     Accept: application/json
1429
1430 .. code-block:: json
1431
1432     {
1433       "device": {
1434         "unique-id": "example",
1435         "credentials": {
1436           "username": "example",
1437           "passwords": [ "password" ]
1438         },
1439         "ssh-host-key": "AAAAB3NzaC1yc2EAAAADAQABAAABAQDHoH1jMjltOJnCt999uaSfc48ySutaD3ISJ9fSECe1Spdq9o9mxj0kBTTTq+2V8hPspuW75DNgN+V/rgJeoUewWwCAasRx9X4eTcRrJrwOQKzb5Fk+UKgQmenZ5uhLAefi2qXX/agFCtZi99vw+jHXZStfHm9TZCAf2zi+HIBzoVksSNJD0VvPo66EAvLn5qKWQD4AdpQQbKqXRf5/W8diPySbYdvOP2/7HFhDukW8yV/7ZtcywFUIu3gdXsrzwMnTqnATSLPPuckoi0V2jd8dQvEcu1DY+rRqmqu0tEkFBurlRZDf1yhNzq5xWY3OXcjgDGN+RxwuWQK3cRimcosH"
1440       }
1441     }
1442
1443 Operational Status
1444 ^^^^^^^^^^^^^^^^^^
1445
1446 Once an entry is made into the config side of "allowed-devices", the Call-Home Server will
1447 populate an corresponding operational device that is the same as the config device but
1448 has an additional status. By default, this status is *DISCONNECTED*. Once a device calls
1449 home, this status will change to one of:
1450
1451 *CONNECTED* — The device is currently connected and the NETCONF mount is available for network
1452 management.
1453
1454 *FAILED_AUTH_FAILURE* — The last attempted connection was unsuccessful because the Call-Home
1455 Server was unable to provide the acceptable credentials of the device. The device is also
1456 disconnected and not available for network management.
1457
1458 *FAILED_NOT_ALLOWED* — The last attempted connection was unsuccessful because the device was
1459 not recognized as an acceptable device. The device is also disconnected and not available for
1460 network management.
1461
1462 *FAILED* — The last attempted connection was unsuccessful for a reason other than not
1463 allowed to connect or incorrect client credentials. The device is also disconnected and not
1464 available for network management.
1465
1466 *DISCONNECTED* — The device is currently disconnected.
1467
1468 Rogue Devices
1469 '''''''''''''
1470
1471 Devices which are not on the whitelist might try to connect to the Call-Home Server. In
1472 these cases, the server will keep a record by instantiating an operational device. There
1473 will be no corresponding config device for these rogues. They can be identified readily
1474 because their device id, rather than being user-supplied, will be of the form
1475 "address:port". Note that if a device calls back multiple times, there will only be
1476 a single operatinal entry (even if the port changes); these devices are recognized by
1477 their unique host key.
1478
1479 Southbound Call-Home API
1480 ~~~~~~~~~~~~~~~~~~~~~~~~
1481
1482 The Call-Home Server listens for incoming TCP connections and assumes that the other side of
1483 the connection is a device calling home via a NETCONF connection with SSH for
1484 management. The server uses port 6666 by default and this can be configured via a
1485 blueprint configuration file.
1486
1487 The device **must** initiate the connection and the server will not try to re-establish the
1488 connection in case of a drop. By requirement, the server cannot assume it has connectivity
1489 to the device due to NAT or firewalls among others.