Fix integration markdown errors for linter
[integration.git] / test / mocks / datafilecollector-testharness / auto-test / README.md
1 # Running automated test case and test suites
2
3 Test cases run a single test case and test suites run one or more test cases in a sequence.
4
5 The test cases and test suites are possible to run on both Ubuntu and Mac-OS. 
6
7 ## Overall structure and setup
8
9 Test cases and test suites are written as bash scripts which call predefined functions in two other bash scripts
10 located in ../common dir.
11 The functions are described further below.
12 The integration repo is needed as well as docker.
13 If needed setup the `DFC_LOCAL_IMAGE` and `DFC_REMOTE_IMAGE` env var in test_env.sh to point to the dfc images (local registry image or next registry image) without the image tag.
14 The predefined images should be ok for current usage:
15
16 `DFC_REMOTE_IMAGE=nexus3.onap.org:10001/onap/org.onap.dcaegen2.collectors.datafile.datafile-app-server`
17
18 `DFC_LOCAL_IMAGE=onap/org.onap.dcaegen2.collectors.datafile.datafile-app-server`
19
20 If the test cases/suites in this dir are not executed in the auto-test dir in the integration repo, then the `SIM_GROUP` env var need to point to the `simulator-group` dir. 
21 See instructions in the test_env.sh. The ../common dir is needed as well in the case. That is, it is possible to have auto-test dir (and the common dir) somewhere else
22 than in the integration repo but the simulator-group and common dir need to be available.
23
24 ## Test cases and test suites naming
25
26 Each file filename should have the format `<tc-id>.sh` for test cases and `<ts-id>.sh` for test suite. The tc-id and ts-id are the
27 identify of the test case or test suite. Example FTC2.sh, FTC2 is the id of the test case. Just the contents of the files determines if 
28 it is a test case or test suite so good to name the file so it is easy to see if it is a test case or a test suite.
29 A simple way to list all test cases/suite along with the description is to do `grep ONELINE_DESCR *.sh` in the shell.
30
31 ## Logs from containers and test cases
32
33 All logs from each test cases are stored under `logs/<tc-id>/`.
34 The logs include the application.log and the container log from dfc, the container logs from each simulator and the test case log (same as the screen output).
35 In the test cases the logs are stored with a prefix so the logs can be stored at different steps during the test. All test cases contains an entry to save all logs with prefix 'END' at the end of each test case.
36
37 ## Execution
38
39 Test cases and test suites are executed by: ` [sudo] ./<tc-id or ts-id>.sh local | remote | remote-remove | manual-container | manual-app`</br>
40
41 - **local** - uses the dfc image pointed out by `DFC_LOCAL_IMAGE` in the test_env, should be the dfc image built locally in your docker registry.</br>
42 - **remote** - uses the dfc image pointed out by `DFC_REMOTE_IMAGE` in the test_env, should be the dfc nexus image in your docker registry.</br>
43 - **remote-remove** - uses the dfc image pointed out by `DFC_REMOTE_IMAGE` in the test_env, should be the dfc nexus image in your docker registry. Removes the nexus image and pull from remote registry.</br>
44 - **manual-container** - uses dfc in a manually started container. The script will prompt you for manual starting and stopping of the container.</br>
45 - **manual-app** - uses dfc app started as an external process (from eclipse etc). The script will prompt you for manual start and stop of the process.</br>
46
47 When running dfc manually, either as a container or an app the ports need to be set to map the instance id of the dfc. Most test cases start dfc with index 0, then the test case expects the ports of dfc to be mapped to the standar port number. 
48 However, if a higher instance id than 0 is used then the mapped ports need add that index to the port number (eg, if index 2 is used the dfc need to map port 8102 and 8435 instead of the standard 8100 and 8433).
49
50 ## Test case file
51
52 A test case file contains a number of steps to verify a certain functionality.
53 A description of the test case should be given to the `TC_ONELINE_DESCR` var. The description will be printed in the test result.
54
55 The empty template for a test case files looks like this:
56
57 (Only the parts noted with &lt; and > shall be changed.)
58
59 ```
60 #!/bin/bash
61
62 TC_ONELINE_DESCR="<test case description>"
63
64 . ../common/testcase_common.sh $1 $2
65
66 #### TEST BEGIN ####
67
68
69 <tests here>
70
71
72 #### TEST COMPLETE ####
73
74 store_logs          END
75
76 print_result
77
78 ```
79
80 The ../common/testcase_common.sh contains all functions needed for the test case file. See the README.md file in the ../common dir for a description of all available functions.
81
82 ## Test suite files
83
84 A test suite file contains one or more test cases to run in sequence.
85 A description of the test case should be given to the `TS_ONELINE_DESCR` var. The description will be printed in the test result.
86
87 The empty template for a test suite files looks like this:
88
89 (Only the parts noted with `<` and `>` shall be changed.)
90
91 ```
92 #!/bin/bash
93
94 TS_ONELINE_DESCR="<test-suite-description>"
95
96 . ../common/testsuite_common.sh
97
98 suite_setup
99
100 ############# TEST CASES #################
101
102 run_tc <tc-id or ts-id>.sh $1 $2
103 ...
104 ...
105
106 ##########################################
107
108 suite_complete
109
110
111 ```
112
113 The ../common/testsuite_common.sh contains all functions needed for a test suite file. See the README.md file in the ../common dir for a description of all available functions.
114
115 ## Known limitations
116
117 When DFC has polled a new event from the MR simulator, DFC starts to check each file whether it has been already published or not. This check is done per file towards the DR simulator. 
118 If the event contains a large amount of files, there is a risk that DFC will flood the DR simulator with requests for these checks. The timeout in DFC for the response is currently 4 sec and the DR simulator may not be able to answer all request within the timeout.
119 DR simulator is single threaded. This seem to be a problem only for the first polled event. For subsequent events these requests seem to be spread out in time by DFC so the DR simulator can respond in time.
120 The problem is visible in the DR simulator counters `ctr_publish_query` and`ctr_publish_query_not_published` in the auto-test scripts. They will have a count slightly less (1 to 5) than the actual number of files in the event. The application log in DFC also prints a timeout error for each failed request.
121 A number of the test script will report failure due to this limitation in the DR simulator.
122
123 The FTP servers may deny connection when too many file download requests are made in a short time from DFC.
124 This is visible in the DFC application log as WARNINGs for failed downloads. However, DFC always retry the failed download a number of times to 
125 minimize the risk of giving up download completely for these files.