CSIT-942: RCA - Option 1: Analysing Archived VPP Results
[csit.git] / resources / tools / presentation / utils.py
index a56ee3e..0a9d985 100644 (file)
@@ -1,4 +1,4 @@
-# Copyright (c) 2017 Cisco and/or its affiliates.
+# Copyright (c) 2018 Cisco and/or its affiliates.
 # Licensed under the Apache License, Version 2.0 (the "License");
 # you may not use this file except in compliance with the License.
 # You may obtain a copy of the License at:
 """General purpose utilities.
 """
 
+import multiprocessing
+import subprocess
 import numpy as np
+import pandas as pd
+import logging
 
-from os import walk
-from os.path import join
+from os import walk, makedirs, environ
+from os.path import join, isdir
+from shutil import move, Error
 from math import sqrt
 
+from errors import PresentationError
+
 
 def mean(items):
     """Calculate mean value from the items.
@@ -62,39 +69,79 @@ def relative_change(nr1, nr2):
     return float(((nr2 - nr1) / nr1) * 100)
 
 
-def remove_outliers(input_data, outlier_const):
-    """
+def remove_outliers(input_list, outlier_const=1.5, window=14):
+    """Return list with outliers removed, using split_outliers.
 
-    :param input_data: Data from which the outliers will be removed.
+    :param input_list: Data from which the outliers will be removed.
     :param outlier_const: Outlier constant.
-    :type input_data: list
+    :param window: How many preceding values to take into account.
+    :type input_list: list of floats
     :type outlier_const: float
+    :type window: int
     :returns: The input list without outliers.
-    :rtype: list
+    :rtype: list of floats
     """
 
-    data = np.array(input_data)
+    data = np.array(input_list)
     upper_quartile = np.percentile(data, 75)
     lower_quartile = np.percentile(data, 25)
     iqr = (upper_quartile - lower_quartile) * outlier_const
     quartile_set = (lower_quartile - iqr, upper_quartile + iqr)
     result_lst = list()
-    for y in data.tolist():
+    for y in input_list:
         if quartile_set[0] <= y <= quartile_set[1]:
             result_lst.append(y)
-    print(quartile_set)
-    print(input_data)
-    print(result_lst)
-    print("")
     return result_lst
 
 
+def split_outliers(input_series, outlier_const=1.5, window=14):
+    """Go through the input data and generate two pandas series:
+    - input data with outliers replaced by NAN
+    - outliers.
+    The function uses IQR to detect outliers.
+
+    :param input_series: Data to be examined for outliers.
+    :param outlier_const: Outlier constant.
+    :param window: How many preceding values to take into account.
+    :type input_series: pandas.Series
+    :type outlier_const: float
+    :type window: int
+    :returns: Input data with NAN outliers and Outliers.
+    :rtype: (pandas.Series, pandas.Series)
+    """
+
+    list_data = list(input_series.items())
+    head_size = min(window, len(list_data))
+    head_list = list_data[:head_size]
+    trimmed_data = pd.Series()
+    outliers = pd.Series()
+    for item_x, item_y in head_list:
+        item_pd = pd.Series([item_y, ], index=[item_x, ])
+        trimmed_data = trimmed_data.append(item_pd)
+    for index, (item_x, item_y) in list(enumerate(list_data))[head_size:]:
+        y_rolling_list = [y for (x, y) in list_data[index - head_size:index]]
+        y_rolling_array = np.array(y_rolling_list)
+        q1 = np.percentile(y_rolling_array, 25)
+        q3 = np.percentile(y_rolling_array, 75)
+        iqr = (q3 - q1) * outlier_const
+        low = q1 - iqr
+        item_pd = pd.Series([item_y, ], index=[item_x, ])
+        if low <= item_y:
+            trimmed_data = trimmed_data.append(item_pd)
+        else:
+            outliers = outliers.append(item_pd)
+            nan_pd = pd.Series([np.nan, ], index=[item_x, ])
+            trimmed_data = trimmed_data.append(nan_pd)
+
+    return trimmed_data, outliers
+
+
 def get_files(path, extension=None, full_path=True):
     """Generates the list of files to process.
 
     :param path: Path to files.
     :param extension: Extension of files to process. If it is the empty string,
-    all files will be processed.
+        all files will be processed.
     :param full_path: If True, the files with full path are generated.
     :type path: str
     :type extension: str
@@ -131,3 +178,179 @@ def get_rst_title_char(level):
         return chars[level]
     else:
         return chars[-1]
+
+
+def execute_command(cmd):
+    """Execute the command in a subprocess and log the stdout and stderr.
+
+    :param cmd: Command to execute.
+    :type cmd: str
+    :returns: Return code of the executed command.
+    :rtype: int
+    """
+
+    env = environ.copy()
+    proc = subprocess.Popen(
+        [cmd],
+        stdout=subprocess.PIPE,
+        stderr=subprocess.PIPE,
+        shell=True,
+        env=env)
+
+    stdout, stderr = proc.communicate()
+
+    if stdout:
+        logging.info(stdout)
+    if stderr:
+        logging.info(stderr)
+
+    if proc.returncode != 0:
+        logging.error("    Command execution failed.")
+    return proc.returncode, stdout, stderr
+
+
+def get_last_successful_build_number(jenkins_url, job_name):
+    """Get the number of the last successful build of the given job.
+
+    :param jenkins_url: Jenkins URL.
+    :param job_name: Job name.
+    :type jenkins_url: str
+    :type job_name: str
+    :returns: The build number as a string.
+    :rtype: str
+    """
+
+    url = "{}/{}/lastSuccessfulBuild/buildNumber".format(jenkins_url, job_name)
+    cmd = "wget -qO- {url}".format(url=url)
+
+    return execute_command(cmd)
+
+
+def get_last_completed_build_number(jenkins_url, job_name):
+    """Get the number of the last completed build of the given job.
+
+    :param jenkins_url: Jenkins URL.
+    :param job_name: Job name.
+    :type jenkins_url: str
+    :type job_name: str
+    :returns: The build number as a string.
+    :rtype: str
+    """
+
+    url = "{}/{}/lastCompletedBuild/buildNumber".format(jenkins_url, job_name)
+    cmd = "wget -qO- {url}".format(url=url)
+
+    return execute_command(cmd)
+
+
+def archive_input_data(spec):
+    """Archive the report.
+
+    :param spec: Specification read from the specification file.
+    :type spec: Specification
+    :raises PresentationError: If it is not possible to archive the input data.
+    """
+
+    logging.info("    Archiving the input data files ...")
+
+    extension = spec.input["file-format"]
+    data_files = get_files(spec.environment["paths"]["DIR[WORKING,DATA]"],
+                           extension=extension)
+    dst = spec.environment["paths"]["DIR[STATIC,ARCH]"]
+    logging.info("      Destination: {0}".format(dst))
+
+    try:
+        if not isdir(dst):
+            makedirs(dst)
+
+        for data_file in data_files:
+            logging.info("      Moving the file: {0} ...".format(data_file))
+            move(data_file, dst)
+
+    except (Error, OSError) as err:
+        raise PresentationError("Not possible to archive the input data.",
+                                str(err))
+
+    logging.info("    Done.")
+
+
+def classify_anomalies(data, window):
+    """Evaluates if the sample value is an outlier, regression, normal or
+    progression compared to the previous data within the window.
+    We use the intervals defined as:
+    - regress: less than trimmed moving median - 3 * stdev
+    - normal: between trimmed moving median - 3 * stdev and median + 3 * stdev
+    - progress: more than trimmed moving median + 3 * stdev
+    where stdev is trimmed moving standard deviation.
+
+    :param data: Full data set with the outliers replaced by nan.
+    :param window: Window size used to calculate moving average and moving
+        stdev.
+    :type data: pandas.Series
+    :type window: int
+    :returns: Evaluated results.
+    :rtype: list
+    """
+
+    if data.size < 3:
+        return None
+
+    win_size = data.size if data.size < window else window
+    tmm = data.rolling(window=win_size, min_periods=2).median()
+    tmstd = data.rolling(window=win_size, min_periods=2).std()
+
+    classification = ["normal", ]
+    first = True
+    for build, value in data.iteritems():
+        if first:
+            first = False
+            continue
+        if np.isnan(value) or np.isnan(tmm[build]) or np.isnan(tmstd[build]):
+            classification.append("outlier")
+        elif value < (tmm[build] - 3 * tmstd[build]):
+            classification.append("regression")
+        elif value > (tmm[build] + 3 * tmstd[build]):
+            classification.append("progression")
+        else:
+            classification.append("normal")
+    return classification
+
+
+class Worker(multiprocessing.Process):
+    """Worker class used to process tasks in separate parallel processes.
+    """
+
+    def __init__(self, work_queue, data_queue, func):
+        """Initialization.
+
+        :param work_queue: Queue with items to process.
+        :param data_queue: Shared memory between processes. Queue which keeps
+            the result data. This data is then read by the main process and used
+            in further processing.
+        :param func: Function which is executed by the worker.
+        :type work_queue: multiprocessing.JoinableQueue
+        :type data_queue: multiprocessing.Manager().Queue()
+        :type func: Callable object
+        """
+        super(Worker, self).__init__()
+        self._work_queue = work_queue
+        self._data_queue = data_queue
+        self._func = func
+
+    def run(self):
+        """Method representing the process's activity.
+        """
+
+        while True:
+            try:
+                self.process(self._work_queue.get())
+            finally:
+                self._work_queue.task_done()
+
+    def process(self, item_to_process):
+        """Method executed by the runner.
+
+        :param item_to_process: Data to be processed by the function.
+        :type item_to_process: tuple
+        """
+        self._func(self.pid, self._data_queue, *item_to_process)