Merge "Chg AAI version to V13 in AaiCtxBuilder"
authorAlexis de Talhouët <adetalhouet89@gmail.com>
Mon, 4 Feb 2019 22:32:11 +0000 (22:32 +0000)
committerGerrit Code Review <gerrit@onap.org>
Mon, 4 Feb 2019 22:32:11 +0000 (22:32 +0000)
docs/oom_setup_kubernetes_rancher.rst
docs/release-notes.rst
kubernetes/pomba/charts/pomba-sdncctxbuilder/resources/config/application.properties

index 35ab88e..5159377 100644 (file)
@@ -72,7 +72,8 @@ new one to assign.
 Apply customization script for the Rancher VM
 ---------------------------------------------
 
-Click :download:`openstack-rancher.sh <openstack-rancher.sh>` to download the script.
+Click :download:`openstack-rancher.sh <openstack-rancher.sh>` to download the
+script.
 
 .. literalinclude:: openstack-rancher.sh
    :language: bash
@@ -134,8 +135,9 @@ The size of a Kubernetes host depends on the size of the ONAP deployment that
 will be installed.
 
 As of the Casablanca release a minimum 224GB will be needed to run a
-full ONAP deployment (all components). It is recommended that more hosts are used
-with fewer resources instead of only a few large hosts. For example 14 x 16GB hosts.
+full ONAP deployment (all components). It is recommended that more hosts are
+used with fewer resources instead of only a few large hosts. For example 14 x
+16GB hosts.
 
 If a small subset of ONAP components are being deployed for testing purposes,
 then a single 16GB or 32GB host should suffice.
@@ -216,7 +218,8 @@ node plays the role of NFS Master (indicated by the crown symbol). To properly
 set up an NFS share on Master and Slave nodes, the user can run the scripts
 below.
 
-Click :download:`master_nfs_node.sh <master_nfs_node.sh>` to download the script.
+Click :download:`master_nfs_node.sh <master_nfs_node.sh>` to download the
+script.
 
 .. literalinclude:: master_nfs_node.sh
    :language: bash
@@ -264,7 +267,8 @@ Add Kubernetes Environment to Rancher
 
 .. image:: Click_create.jpeg
 
-6. Select the new named environment (ie. SB4) from the dropdown list (top left).
+6. Select the new named environment (ie. SB4) from the dropdown list (top
+   left).
 
 Rancher is now waiting for a Kubernetes Host to be added.
 
@@ -273,7 +277,8 @@ Rancher is now waiting for a Kubernetes Host to be added.
 Add Kubernetes Host
 -------------------
 
-1.  If this is the first (or only) host being added - click on the "Add a host" link
+1.  If this is the first (or only) host being added - click on the "Add a host"
+    link
 
 .. image:: K8s-Assign_Floating_IP_for_external_access.jpeg
 
@@ -285,7 +290,8 @@ otherwise select INFRASTRUCTURE→ Hosts and click on "Add Host"
 
 .. image:: otherwise_select_INFRASTRUCTURE_Hosts_and_click_on_Add_Host.jpg
 
-2. Enter the management IP for the k8s VM (e.g. 10.0.0.4) that was just created.
+2. Enter the management IP for the k8s VM (e.g. 10.0.0.4) that was just
+   created.
 
 3. Click on “Copy to Clipboard” button
 
@@ -469,5 +475,3 @@ documentation to get started:
 
 - :ref:`quick-start-label` - deploy ONAP on an existing cloud
 - :ref:`user-guide-label` - a guide for operators of an ONAP instance
-
-
index 3e8a1be..82e4fb1 100644 (file)
@@ -1,6 +1,8 @@
-.. This work is licensed under a Creative Commons Attribution 4.0 International License.
+.. This work is licensed under a Creative Commons Attribution 4.0 International
+.. License.
 .. http://creativecommons.org/licenses/by/4.0
-.. Copyright 2017 Bell Canada & Amdocs Intellectual Property.  All rights reserved.
+.. Copyright 2017 Bell Canada & Amdocs Intellectual Property.  All rights
+.. reserved.
 
 .. Links
 .. _release-notes-label:
@@ -16,39 +18,57 @@ Version 3.0.0 Casablanca Release
 Summary
 =======
 
-The focus of this release was on incremental improvements in the following areas:
-* Pluggable persistent storage with support for GlusterFS as the first storage class provisioner
-* CPU and Memory limits in Helm Charts to improve Pod placement based on resource availablity in Kubernetes Cluster
+The focus of this release was on incremental improvements in the following
+areas:
+
+* Pluggable persistent storage with support for GlusterFS as the first storage
+  class provisioner
+
+* CPU and Memory limits in Helm Charts to improve Pod placement based on
+  resource availablity in Kubernetes Cluster
+
 * Support of Node Selectors for Pod placement
+
 * Common "shared" Helm Charts referencing common images
+
   - mariadb-galera
   - postgres
   - cassandra
   - mysql
   - mongo
+
 * Integration of ARK Backup and Restore solution
-* Introduction of Helm deploy and undeploy plugins to better manage ONAP deployments
+
+* Introduction of Helm deploy and undeploy plugins to better manage ONAP
+  deployments
 
 
 **Security Notes**
 
-OOM code has been formally scanned during build time using NexusIQ and no Critical vulnerability was found.
+OOM code has been formally scanned during build time using NexusIQ and no
+Critical vulnerability was found.
 
 Quick Links:
-       - `OOM project page <https://wiki.onap.org/display/DW/ONAP+Operations+Manager+Project>`_
 
-       - `Passing Badge information for OOM <https://bestpractices.coreinfrastructure.org/en/projects/1631>`_
+  - `OOM project page <https://wiki.onap.org/display/DW/ONAP+Operations+Manager+Project>`_
+
+  - `Passing Badge information for OOM <https://bestpractices.coreinfrastructure.org/en/projects/1631>`_
 
 
 **Known Issues**
 
-Problem:        kubectl connections to pods (kubectl exec|logs) will fail after a while due to a known bug in Kubernetes (1.11.2)
-Workaround:     Restart of the kubelet daemons on the k8s hosts
-Fix:            Will be delivered in the next release via a new Kubernetes version (1.12)
-- `K8S Bug Report <https://github.com/kubernetes/kubernetes/issues/67659>`_
-- `OOM-1532 <https://jira.onap.org/browse/OOM-1532>`_
-- `OOM-1516 <https://jira.onap.org/browse/OOM-1516>`_
-- `OOM-1520 <https://jira.onap.org/browse/OOM-1520>`_
+ * **Problem**:        kubectl connections to pods (kubectl exec|logs) will
+   fail after a while due to a known bug in Kubernetes (1.11.2)
+
+   **Workaround**:     Restart of the kubelet daemons on the k8s hosts
+
+   **Fix**:            Will be delivered in the next release via a new
+   Kubernetes version (1.12)
+
+   - `K8S Bug Report <https://github.com/kubernetes/kubernetes/issues/67659>`_
+   - `OOM-1532 <https://jira.onap.org/browse/OOM-1532>`_
+   - `OOM-1516 <https://jira.onap.org/browse/OOM-1516>`_
+   - `OOM-1520 <https://jira.onap.org/browse/OOM-1520>`_
 
 
 Version 2.0.0 Beijing Release
@@ -450,12 +470,13 @@ Sub-task
 
 **Security Notes**
 
-OOM code has been formally scanned during build time using NexusIQ and no Critical vulnerability was found.
+OOM code has been formally scanned during build time using NexusIQ and no
+Critical vulnerability was found.
 
 Quick Links:
-       - `OOM project page <https://wiki.onap.org/display/DW/ONAP+Operations+Manager+Project>`_
+  - `OOM project page <https://wiki.onap.org/display/DW/ONAP+Operations+Manager+Project>`_
 
-       - `Passing Badge information for OOM <https://bestpractices.coreinfrastructure.org/en/projects/1631>`_
+  - `Passing Badge information for OOM <https://bestpractices.coreinfrastructure.org/en/projects/1631>`_
 
 Version: 1.1.0
 --------------
@@ -464,34 +485,43 @@ Version: 1.1.0
 
 **New Features**
 
-The Amsterdam release is the first release of the ONAP Operations Manager (OOM).
+The Amsterdam release is the first release of the ONAP Operations Manager
+(OOM).
 
 The main goal of the Amsterdam release was to:
 
-    - Support Flexible Platform Deployment via Kubernetes of fully containerized ONAP components - on any type of environment.
+    - Support Flexible Platform Deployment via Kubernetes of fully
+      containerized ONAP components - on any type of environment.
     - Support State Management of ONAP platform components.
-    - Support full production ONAP deployment and any variation of component level deployment for development.
+    - Support full production ONAP deployment and any variation of component
+      level deployment for development.
     - Platform Operations Orchestration / Control Loop Actions.
     - Platform centralized logging with ELK stack.
 
 **Bug Fixes**
 
-    The full list of implemented user stories and epics is available on `JIRA <https://jira.onap.org/secure/RapidBoard.jspa?rapidView=41&view=planning.nodetail&epics=visible>`_
-    This is the first release of OOM, the defects fixed in this release were raised during the course of the release.
-    Anything not closed is captured below under Known Issues. If you want to review the defects fixed in the Amsterdam release, refer to Jira link above.
+    The full list of implemented user stories and epics is available on
+    `JIRA <https://jira.onap.org/secure/RapidBoard.jspa?rapidView=41&view=planning.nodetail&epics=visible>`_
+    This is the first release of OOM, the defects fixed in this release were
+    raised during the course of the release.
+    Anything not closed is captured below under Known Issues. If you want to
+    review the defects fixed in the Amsterdam release, refer to Jira link
+    above.
 
 **Known Issues**
     - `OOM-6 <https://jira.onap.org/browse/OOM-6>`_ Automated platform deployment on Docker/Kubernetes
 
         VFC, AAF, MSB minor issues.
 
-        Workaround: Manual configuration changes - however the reference vFirewall use case does not currently require these components.
+        Workaround: Manual configuration changes - however the reference
+        vFirewall use case does not currently require these components.
 
     - `OOM-10 <https://jira.onap.org/browse/OOM-10>`_ Platform configuration management.
 
         OOM ONAP Configuration Management - Handling of Secrets.
 
-        Workaround: Automated workaround to be able to pull from protected docker repositories.
+        Workaround: Automated workaround to be able to pull from protected
+        docker repositories.
 
 
 **Security Issues**
index fcfe9dc..991c77d 100644 (file)
@@ -53,9 +53,9 @@ aai.readTimeout={{ .Values.config.aaiReadTimeout }}
 aai.http.userId={{ .Values.config.aaiHttpUserId }}
 aai.http.password={{ .Values.config.aaiHttpPassword }}
 
-aai.searchNodeQuery=/aai/v11/search/nodes-query?search-node-type=service-instance&filter=service-instance-id:EQUALS:
-aai.customerQuery=/aai/v11/business/customers/customer/
-aai.serviceInstancePath=/aai/v11/business/customers/customer/{0}/service-subscriptions/service-subscription/{1}/service-instances/service-instance/{2}
+aai.searchNodeQuery=/aai/v13/search/nodes-query?search-node-type=service-instance&filter=service-instance-id:EQUALS:
+aai.customerQuery=/aai/v13/business/customers/customer/
+aai.serviceInstancePath=/aai/v13/business/customers/customer/{0}/service-subscriptions/service-subscription/{1}/service-instances/service-instance/{2}
 
 # SDNC REST Client Configuration
 sdnc.serviceName={{ .Values.config.sdncServiceName }}.{{.Release.Namespace}}
@@ -66,6 +66,7 @@ sdnc.httpProtocol={{ .Values.config.sdncHttpProtocol }}
 sdnc.connectionTimeout={{ .Values.config.sdncConnectionTimeout }}
 sdnc.readTimeout={{ .Values.config.sdncReadTimeout }}
 sdnc.genericResourcePath=/restconf/config/GENERIC-RESOURCE-API:services/service/{0}
+sdnc.portMirrorResourcePath=/restconf/config/GENERIC-RESOURCE-API:port-mirror-configurations/port-mirror-configuration/{0}/configuration-data/configuration-operation-information/port-mirror-configuration-request-input
 sdnc.vnfPath=/restconf/config/VNF-API:vnfs/vnf-list/{0}
 
 #Servlet context parameters