Tox: Move logs to archive also on -1
[csit.git] / docs / ietf / draft-ietf-bmwg-mlrsearch-00.md
1 ---
2 title: Multiple Loss Ratio Search for Packet Throughput (MLRsearch)
3 # abbrev: MLRsearch
4 docname: draft-ietf-bmwg-mlrsearch-00
5 date: 2021-02-05
6
7 ipr: trust200902
8 area: ops
9 wg: Benchmarking Working Group
10 kw: Internet-Draft
11 cat: info
12
13 coding: us-ascii
14 pi:    # can use array (if all yes) or hash here
15 #  - toc
16 #  - sortrefs
17 #  - symrefs
18   toc: yes
19   sortrefs:   # defaults to yes
20   symrefs: yes
21
22 author:
23       -
24         ins: M. Konstantynowicz
25         name: Maciek Konstantynowicz
26         org: Cisco Systems
27         role: editor
28         email: mkonstan@cisco.com
29       -
30         ins: V. Polak
31         name: Vratko Polak
32         org: Cisco Systems
33         role: editor
34         email: vrpolak@cisco.com
35
36 normative:
37   RFC2544:
38   RFC8174:
39
40 informative:
41   FDio-CSIT-MLRsearch:
42     target: https://docs.fd.io/csit/rls2001/report/introduction/methodology_data_plane_throughput/methodology_mlrsearch_tests.html
43     title: "FD.io CSIT Test Methodology - MLRsearch"
44     date: 2020-02
45   PyPI-MLRsearch:
46     target: https://pypi.org/project/MLRsearch/0.3.0/
47     title: "MLRsearch 0.3.0, Python Package Index"
48     date: 2020-02
49
50 --- abstract
51
52 This document proposes changes to [RFC2544], specifically to packet
53 throughput search methodology, by defining a new search algorithm
54 referred to as Multiple Loss Ratio search (MLRsearch for short). Instead
55 of relying on binary search with pre-set starting offered load, it
56 proposes a novel approach discovering the starting point in the initial
57 phase, and then searching for packet throughput based on defined packet
58 loss ratio (PLR) input criteria and defined final trial duration time.
59 One of the key design principles behind MLRsearch is minimizing the
60 total test duration and searching for multiple packet throughput rates
61 (each with a corresponding PLR) concurrently, instead of doing it
62 sequentially.
63
64 The main motivation behind MLRsearch is the new set of challenges and
65 requirements posed by NFV (Network Function Virtualization),
66 specifically software based implementations of NFV data planes. Using
67 [RFC2544] in the experience of the authors yields often not repetitive
68 and not replicable end results due to a large number of factors that are
69 out of scope for this draft. MLRsearch aims to address this challenge
70 in a simple way of getting the same result sooner, so more repetitions
71 can be done to describe the replicability.
72
73 --- middle
74
75 # Terminology
76
77 * Frame size: size of an Ethernet Layer-2 frame on the wire, including
78   any VLAN tags (dot1q, dot1ad) and Ethernet FCS, but excluding Ethernet
79   preamble and inter-frame gap. Measured in bytes.
80 * Packet size: same as frame size, both terms used interchangeably.
81 * Device Under Test (DUT): In software networking, "device" denotes a
82   specific piece of software tasked with packet processing. Such device
83   is surrounded with other software components (such as operating system
84   kernel). It is not possible to run devices without also running the
85   other components, and hardware resources are shared between both. For
86   purposes of testing, the whole set of hardware and software components
87   is called "system under test" (SUT). As SUT is the part of the whole
88   test setup performance of which can be measured by [RFC2544] methods,
89   this document uses SUT instead of [RFC2544] DUT. Device under test
90   (DUT) can be re-introduced when analysing test results using whitebox
91   techniques, but this document sticks to blackbox testing.
92 * System Under Test (SUT): System under test (SUT) is a part of the
93   whole test setup whose performance is to be benchmarked. The complete
94   test setup contains other parts, whose performance is either already
95   established, or not affecting the benchmarking result.
96 * Bi-directional throughput tests: involve packets/frames flowing in
97   both transmit and receive directions over every tested interface of
98   SUT/DUT. Packet flow metrics are measured per direction, and can be
99   reported as aggregate for both directions and/or separately
100   for each measured direction. In most cases bi-directional tests
101   use the same (symmetric) load in both directions.
102 * Uni-directional throughput tests: involve packets/frames flowing in
103   only one direction, i.e. either transmit or receive direction, over
104   every tested interface of SUT/DUT. Packet flow metrics are measured
105   and are reported for measured direction.
106 * Packet Loss Ratio (PLR): ratio of packets received relative to packets
107   transmitted over the test trial duration, calculated using formula:
108   PLR = ( pkts_transmitted - pkts_received ) / pkts_transmitted.
109   For bi-directional throughput tests aggregate PLR is calculated based
110   on the aggregate number of packets transmitted and received.
111 * Packet Throughput Rate: maximum packet offered load DUT/SUT forwards
112   within the specified Packet Loss Ratio (PLR). In many cases the rate
113   depends on the frame size processed by DUT/SUT. Hence packet
114   throughput rate MUST be quoted with specific frame size as received by
115   DUT/SUT during the measurement. For bi-directional tests, packet
116   throughput rate should be reported as aggregate for both directions.
117   Measured in packets-per-second (pps) or frames-per-second (fps),
118   equivalent metrics.
119 * Bandwidth Throughput Rate: a secondary metric calculated from packet
120   throughput rate using formula: bw_rate = pkt_rate * (frame_size +
121   L1_overhead) * 8, where L1_overhead for Ethernet includes preamble (8
122   Bytes) and inter-frame gap (12 Bytes). For bi-directional tests,
123   bandwidth throughput rate should be reported as aggregate for both
124   directions. Expressed in bits-per-second (bps).
125 * Non Drop Rate (NDR): maximum packet/bandwith throughput rate sustained
126   by DUT/SUT at PLR equal zero (zero packet loss) specific to tested
127   frame size(s). MUST be quoted with specific packet size as received by
128   DUT/SUT during the measurement. Packet NDR measured in
129   packets-per-second (or fps), bandwidth NDR expressed in
130   bits-per-second (bps).
131 * Partial Drop Rate (PDR): maximum packet/bandwith throughput rate
132   sustained by DUT/SUT at PLR greater than zero (non-zero packet loss)
133   specific to tested frame size(s). MUST be quoted with specific packet
134   size as received by DUT/SUT during the measurement. Packet PDR
135   measured in packets-per-second (or fps), bandwidth PDR expressed in
136   bits-per-second (bps).
137 * Maximum Receive Rate (MRR): packet/bandwidth rate regardless of PLR
138   sustained by DUT/SUT under specified Maximum Transmit Rate (MTR)
139   packet load offered by traffic generator. MUST be quoted with both
140   specific packet size and MTR as received by DUT/SUT during the
141   measurement. Packet MRR measured in packets-per-second (or fps),
142   bandwidth MRR expressed in bits-per-second (bps).
143 * Trial: a single measurement step. See [RFC2544] section 23.
144 * Trial duration: amount of time over which packets are transmitted
145   in a single measurement step.
146
147 # MLRsearch Background
148
149 Multiple Loss Ratio search (MLRsearch) is a packet throughput search
150 algorithm suitable for deterministic systems (as opposed to
151 probabilistic systems). MLRsearch discovers multiple packet throughput
152 rates in a single search, with each rate associated with a distinct
153 Packet Loss Ratio (PLR) criteria.
154
155 For cases when multiple rates need to be found, this property makes
156 MLRsearch more efficient in terms of time execution, compared to
157 traditional throughput search algorithms that discover a single packet
158 rate per defined search criteria (e.g. a binary search specified by
159 [RFC2544]). MLRsearch reduces execution time even further by relying on
160 shorter trial durations of intermediate steps, with only the final
161 measurements conducted at the specified final trial duration. This
162 results in the shorter overall search execution time when compared to a
163 traditional binary search, while guaranteeing the same results for
164 deterministic systems.
165
166 In practice two rates with distinct PLRs are commonly used for packet
167 throughput measurements of NFV systems: Non Drop Rate (NDR) with PLR=0
168 and Partial Drop Rate (PDR) with PLR>0. The rest of this document
169 describes MLRsearch for NDR and PDR. If needed, MLRsearch can be
170 adapted to discover more throughput rates with different pre-defined
171 PLRs.
172
173 Similarly to other throughput search approaches like binary search,
174 MLRsearch is effective for SUTs/DUTs with PLR curve that is continuously
175 flat or increasing with growing offered load. It may not be as
176 effective for SUTs/DUTs with abnormal PLR curves.
177
178 MLRsearch relies on traffic generator to qualify the received packet
179 stream as error-free, and invalidate the results if any disqualifying
180 errors are present e.g. out-of-sequence frames.
181
182 MLRsearch can be applied to both uni-directional and bi-directional
183 throughput tests.
184
185 For bi-directional tests, MLRsearch rates and ratios are aggregates of
186 both directions, based on the following assumptions:
187
188 * Traffic transmitted by traffic generator and received by SUT/DUT
189   has the same packet rate in each direction,
190   in other words the offered load is symmetric.
191 * SUT/DUT packet processing capacity is the same in both directions,
192   resulting in the same packet loss under load.
193
194 # MLRsearch Overview
195
196 The main properties of MLRsearch:
197
198 * MLRsearch is a duration aware multi-phase multi-rate search algorithm:
199   * Initial Phase determines promising starting interval for the search.
200   * Intermediate Phases progress towards defined final search criteria.
201   * Final Phase executes measurements according to the final search
202     criteria.
203   * Final search criteria are defined by following inputs:
204     * PLRs associated with NDR and PDR.
205     * Final trial duration.
206     * Measurement resolution.
207 * Initial Phase:
208   * Measure MRR over initial trial duration.
209   * Measured MRR is used as an input to the first intermediate phase.
210 * Multiple Intermediate Phases:
211   * Trial duration:
212     * Start with initial trial duration in the first intermediate phase.
213     * Converge geometrically towards the final trial duration.
214   * Track two values for NDR and two for PDR:
215     * The values are called lower_bound and upper_bound.
216     * Each value comes from a specific trial measurement:
217       * Most recent for that transmit rate.
218       * As such the value is associated with that measurement's duration
219         and loss.
220     * A bound can be valid or invalid:
221       * Valid lower_bound must conform with PLR search criteria.
222       * Valid upper_bound must not conform with PLR search criteria.
223       * Example of invalid NDR lower_bound is if it has been measured
224         with non-zero loss.
225       * Invalid bounds are not real boundaries for the searched value:
226         * They are needed to track interval widths.
227       * Valid bounds are real boundaries for the searched value.
228       * Each non-initial phase ends with all bounds valid.
229       * Bound can become invalid if it re-measured at a longer trial
230         duration in a sub-sequent phase.
231   * Search:
232     * Start with a large (lower_bound, upper_bound) interval width, that
233       determines measurement resolution.
234     * Geometrically converge towards the width goal of the phase.
235     * Each phase halves the previous width goal.
236       * First measurement of the next phase will be internal search
237         which always gives a valid bound and brings the width to the new goal.
238       * Only one bound then needs to be re-measured with new duration.
239   * Use of internal and external searches:
240     * External search:
241       * Measures at transmit rates outside the (lower_bound,
242         upper_bound) interval.
243       * Activated when a bound is invalid, to search for a new valid
244         bound by multiplying (for example doubling) the interval width.
245       * It is a variant of "exponential search".
246     * Internal search:
247       * A "binary search" that measures at transmit rates within the
248         (lower_bound, upper_bound) valid interval, halving the interval
249         width.
250 * Final Phase:
251   * Executed with the final test trial duration, and the final width
252     goal that determines resolution of the overall search.
253 * Intermediate Phases together with the Final Phase are called
254   Non-Initial Phases.
255
256 The main benefits of MLRsearch vs. binary search include:
257
258 * In general MLRsearch is likely to execute more trials overall, but
259   likely less trials at a set final trial duration.
260 * In well behaving cases, e.g. when results do not depend on trial
261   duration, it greatly reduces (>50%) the overall duration compared to a
262   single PDR (or NDR) binary search over duration, while finding
263   multiple drop rates.
264 * In all cases MLRsearch yields the same or similar results to binary
265   search.
266 * Note: both binary search and MLRsearch are susceptible to reporting
267   non-repeatable results across multiple runs for very bad behaving
268   cases.
269
270 Caveats:
271
272 * Worst case MLRsearch can take longer than a binary search e.g. in case of
273   drastic changes in behaviour for trials at varying durations.
274
275 # Sample Implementation
276
277 Following is a brief description of a sample MLRsearch implementation,
278 which is a simlified version of the existing implementation.
279
280 ## Input Parameters
281
282 1. **maximum_transmit_rate** - Maximum Transmit Rate (MTR) of packets to
283    be used by external traffic generator implementing MLRsearch,
284    limited by the actual Ethernet link(s) rate, NIC model or traffic
285    generator capabilities.
286 2. **minimum_transmit_rate** - minimum packet transmit rate to be used for
287    measurements. MLRsearch fails if lower transmit rate needs to be
288    used to meet search criteria.
289 3. **final_trial_duration** - required trial duration for final rate
290    measurements.
291 4. **initial_trial_duration** - trial duration for initial MLRsearch phase.
292 5. **final_relative_width** - required measurement resolution expressed as
293    (lower_bound, upper_bound) interval width relative to upper_bound.
294 6. **packet_loss_ratio** - maximum acceptable PLR search criterion for
295    PDR measurements.
296 7. **number_of_intermediate_phases** - number of phases between the initial
297    phase and the final phase. Impacts the overall MLRsearch duration.
298    Less phases are required for well behaving cases, more phases
299    may be needed to reduce the overall search duration for worse behaving cases.
300
301 ## Initial Phase
302
303 1. First trial measures at configured maximum transmit rate (MTR) and
304    discovers maximum receive rate (MRR).
305    * IN: trial_duration = initial_trial_duration.
306    * IN: offered_transmit_rate = maximum_transmit_rate.
307    * DO: single trial.
308    * OUT: measured loss ratio.
309    * OUT: MRR = measured receive rate.
310    If loss ratio is zero, MRR is set below MTR so that interval width is equal
311    to the width goal of the first intermediate phase.
312 2. Second trial measures at MRR and discovers MRR2.
313    * IN: trial_duration = initial_trial_duration.
314    * IN: offered_transmit_rate = MRR.
315    * DO: single trial.
316    * OUT: measured loss ratio.
317    * OUT: MRR2 = measured receive rate.
318    If loss ratio is zero, MRR2 is set above MRR so that interval width is equal
319    to the width goal of the first intermediate phase.
320    MRR2 could end up being equal to MTR (for example if both measurements so far
321    had zero loss), which was already measured, step 3 is skipped in that case.
322 3. Third trial measures at MRR2.
323    * IN: trial_duration = initial_trial_duration.
324    * IN: offered_transmit_rate = MRR2.
325    * DO: single trial.
326    * OUT: measured loss ratio.
327
328 ## Non-Initial Phases
329
330 1. Main loop:
331    1. IN: trial_duration for the current phase. Set to
332       initial_trial_duration for the first intermediate phase; to
333       final_trial_duration for the final phase; or to the element of
334       interpolating geometric sequence for other intermediate phases.
335       For example with two intermediate phases, trial_duration of the
336       second intermediate phase is the geometric average of
337       initial_trial_duration and final_trial_duration.
338    2. IN: relative_width_goal for the current phase. Set to
339       final_relative_width for the final phase; doubled for each
340       preceding phase. For example with two intermediate phases, the
341       first intermediate phase uses quadruple of final_relative_width
342       and the second intermediate phase uses double of
343       final_relative_width.
344    3. IN: ndr_interval, pdr_interval from the previous main loop
345       iteration or the previous phase. If the previous phase is the
346       initial phase, both intervals are formed by a (correctly ordered)
347       pair of MRR2 and MRR. Note that the initial phase is likely
348       to create intervals with invalid bounds.
349    4. DO: According to the procedure described in point 2., either exit
350       the phase (by jumping to 1.7.), or calculate new transmit rate to
351       measure with.
352    5. DO: Perform the trial measurement at the new transmit rate and
353       trial_duration, compute its loss ratio.
354    6. DO: Update the bounds of both intervals, based on the new
355       measurement. The actual update rules are numerous, as NDR external
356       search can affect PDR interval and vice versa, but the result
357       agrees with rules of both internal and external search. For
358       example, any new measurement below an invalid lower_bound becomes
359       the new lower_bound, while the old measurement (previously acting
360       as the invalid lower_bound) becomes a new and valid upper_bound.
361       Go to next iteration (1.3.), taking the updated intervals as new
362       input.
363    7. OUT: current ndr_interval and pdr_interval. In the final phase
364       this is also considered to be the result of the whole search. For
365       other phases, the next phase loop is started with the current
366       results as an input.
367 2. New transmit rate (or exit) calculation (for point 1.4.):
368    1. If there is an invalid bound then prepare for external search:
369       * IF the most recent measurement at NDR lower_bound transmit
370         rate had the loss higher than zero, then the new transmit rate
371         is NDR lower_bound decreased by two NDR interval widths.
372       * Else, IF the most recent measurement at PDR lower_bound
373         transmit rate had the loss higher than PLR, then the new
374         transmit rate is PDR lower_bound decreased by two PDR interval
375         widths.
376       * Else, IF the most recent measurement at NDR upper_bound
377         transmit rate had no loss, then the new transmit rate is NDR
378         upper_bound increased by two NDR interval widths.
379       * Else, IF the most recent measurement at PDR upper_bound
380         transmit rate had the loss lower or equal to PLR, then the new
381         transmit rate is PDR upper_bound increased by two PDR interval
382         widths.
383    2. Else, if interval width is higher than the current phase goal:
384       * IF NDR interval does not meet the current phase width
385         goal, prepare for internal search. The new transmit rate is a
386         in the middle of NDR lower_bound and NDR upper_bound.
387       * IF PDR interval does not meet the current phase width
388         goal, prepare for internal search. The new transmit rate is a
389         in the middle of PDR lower_bound and PDR upper_bound.
390    3. Else, if some bound has still only been measured at a lower
391       duration, prepare to re-measure at the current duration (and the
392       same transmit rate). The order of priorities is:
393       * NDR lower_bound,
394       * PDR lower_bound,
395       * NDR upper_bound,
396       * PDR upper_bound.
397    4. Else, do not prepare any new rate, to exit the phase.
398       This ensures that at the end of each non-initial phase
399       all intervals are valid, narrow enough, and measured
400       at current phase trial duration.
401
402 # FD.io CSIT Implementation
403
404 The only known working implementation of MLRsearch is in
405 the open-source code running in Linux Foundation
406 FD.io CSIT project [FDio-CSIT-MLRsearch] as part of
407 a Continuous Integration / Continuous Development (CI/CD) framework.
408
409 MLRsearch is also available as a Python package in [PyPI-MLRsearch].
410
411 ## Additional details
412
413 This document so far has been describing a simplified version of
414 MLRsearch algorithm. The full algorithm as implemented in CSIT contains
415 additional logic, which makes some of the details (but not general
416 ideas) above incorrect. Here is a short description of the additional
417 logic as a list of principles, explaining their main differences from
418 (or additions to) the simplified description, but without detailing
419 their mutual interaction.
420
421 1. Logarithmic transmit rate.
422    * In order to better fit the relative width goal, the interval
423      doubling and halving is done differently.
424    * For example, the middle of 2 and 8 is 4, not 5.
425 2. Optimistic maximum rate.
426    * The increased rate is never higher than the maximum rate.
427    * Upper bound at that rate is always considered valid.
428 3. Pessimistic minimum rate.
429    * The decreased rate is never lower than the minimum rate.
430    * If a lower bound at that rate is invalid, a phase stops refining
431      the interval further (until it gets re-measured).
432 4. Conservative interval updates.
433    * Measurements above the current upper bound never update a valid upper
434      bound, even if drop ratio is low.
435    * Measurements below the current lower bound always update any lower
436      bound if drop ratio is high.
437 5. Ensure sufficient interval width.
438    * Narrow intervals make external search take more time to find a
439      valid bound.
440    * If the new transmit increased or decreased rate would result in
441      width less than the current goal, increase/decrease more.
442    * This can happen if the measurement for the other interval
443      makes the current interval too narrow.
444    * Similarly, take care the measurements in the initial phase create
445      wide enough interval.
446 6. Timeout for bad cases.
447    * The worst case for MLRsearch is when each phase converges to
448      intervals way different than the results of the previous phase.
449    * Rather than suffer total search time several times larger than pure
450      binary search, the implemented tests fail themselves when the
451      search takes too long (given by argument *timeout*).
452 7. Pessimistic external search.
453    * Valid bound becoming invalid on re-measurement with higher duration
454      is frequently a sign of SUT behaving in non-deterministic way
455      (from blackbox point of view). If the final width interval goal
456      is too narrow compared to width of rate region where SUT
457      is non-deterministic, it is quite likely that there will be multiple
458      invalid bounds before the external search finds a valid one.
459    * In this case, external search can be sped up by increasing interval width
460      more rapidly. As only powers of two ensure the subsequent internal search
461      will not result in needlessly narrow interval, a parameter *doublings*
462      is introduced to control the pessimism of external search.
463      For example three doublings result in interval width being multiplied
464      by eight in each external search iteration.
465
466 ### FD.io CSIT Input Parameters
467
468 1. **maximum_transmit_rate** - Typical values: 2 * 14.88 Mpps for 64B
469    10GE link rate, 2 * 18.75 Mpps for 64B 40GE NIC (specific model).
470 2. **minimum_transmit_rate** - Value: 2 * 10 kpps (traffic generator
471    limitation).
472 3. **final_trial_duration** - Value: 30 seconds.
473 4. **initial_trial_duration** - Value: 1 second.
474 5. **final_relative_width** - Value: 0.005 (0.5%).
475 6. **packet_loss_ratio** - Value: 0.005 (0.5%).
476 7. **number_of_intermediate_phases** - Value: 2.
477    The value has been chosen based on limited experimentation to date.
478    More experimentation needed to arrive to clearer guidelines.
479 8. **timeout** - Limit for the overall search duration (for one search).
480    If MLRsearch oversteps this limit, it immediatelly declares the test failed,
481    to avoid wasting even more time on a misbehaving SUT.
482    Value: 600 (seconds).
483 9. **doublings** - Number of dublings when computing new interval width
484    in external search.
485    Value: 2 (interval width is quadroupled).
486    Value of 1 is best for well-behaved SUTs, but value of 2 has been found
487    to decrease overall search time for worse-behaved SUT configurations,
488    contributing more to the overall set of different SUT configurations tested.
489
490 ## Example MLRsearch Run
491
492 The following table shows data from a real test run in CSIT
493 (using the default input values as above).
494 The first column is the phase, the second is the trial measurement performed
495 (aggregate bidirectional offered load in megapackets per second,
496 and trial duration in seconds).
497 Each of last four columns show one bound as updated after the measurement
498 (duration truncated to save space).
499 Loss ratio is not shown, but invalid bounds are marked with a plus sign.
500
501 | Phase |   Trial    | NDR lower | NDR upper | PDR lower | PDR upper |
502 | ----: | ---------: | --------: | --------: | --------: | --------: |
503 | init. | 37.50 1.00 |    N/A    |  37.50 1. |    N/A    |  37.50 1. |
504 | init. | 10.55 1.00 | +10.55 1. |  37.50 1. | +10.55 1. |  37.50 1. |
505 | init. | 9.437 1.00 | +9.437 1. |  10.55 1. | +9.437 1. |  10.55 1. |
506 | int 1 | 6.053 1.00 |  6.053 1. |  9.437 1. |  6.053 1. |  9.437 1. |
507 | int 1 | 7.558 1.00 |  7.558 1. |  9.437 1. |  7.558 1. |  9.437 1. |
508 | int 1 | 8.446 1.00 |  8.446 1. |  9.437 1. |  8.446 1. |  9.437 1. |
509 | int 1 | 8.928 1.00 |  8.928 1. |  9.437 1. |  8.928 1. |  9.437 1. |
510 | int 1 | 9.179 1.00 |  8.928 1. |  9.179 1. |  9.179 1. |  9.437 1. |
511 | int 1 | 9.052 1.00 |  9.052 1. |  9.179 1. |  9.179 1. |  9.437 1. |
512 | int 1 | 9.307 1.00 |  9.052 1. |  9.179 1. |  9.179 1. |  9.307 1. |
513 | int 2 | 9.115 5.48 |  9.115 5. |  9.179 1. |  9.179 1. |  9.307 1. |
514 | int 2 | 9.243 5.48 |  9.115 5. |  9.179 1. |  9.243 5. |  9.307 1. |
515 | int 2 | 9.179 5.48 |  9.115 5. |  9.179 5. |  9.243 5. |  9.307 1. |
516 | int 2 | 9.307 5.48 |  9.115 5. |  9.179 5. |  9.243 5. | +9.307 5. |
517 | int 2 | 9.687 5.48 |  9.115 5. |  9.179 5. |  9.307 5. |  9.687 5. |
518 | int 2 | 9.495 5.48 |  9.115 5. |  9.179 5. |  9.307 5. |  9.495 5. |
519 | int 2 | 9.401 5.48 |  9.115 5. |  9.179 5. |  9.307 5. |  9.401 5. |
520 | final | 9.147 30.0 |  9.115 5. |  9.147 30 |  9.307 5. |  9.401 5. |
521 | final | 9.354 30.0 |  9.115 5. |  9.147 30 |  9.307 5. |  9.354 30 |
522 | final | 9.115 30.0 | +9.115 30 |  9.147 30 |  9.307 5. |  9.354 30 |
523 | final | 8.935 30.0 |  8.935 30 |  9.115 30 |  9.307 5. |  9.354 30 |
524 | final | 9.025 30.0 |  9.025 30 |  9.115 30 |  9.307 5. |  9.354 30 |
525 | final | 9.070 30.0 |  9.070 30 |  9.115 30 |  9.307 5. |  9.354 30 |
526 | final | 9.307 30.0 |  9.070 30 |  9.115 30 |  9.307 30 |  9.354 30 |
527
528 # IANA Considerations
529
530 No requests of IANA.
531
532 # Security Considerations
533
534 Benchmarking activities as described in this memo are limited to
535 technology characterization of a DUT/SUT using controlled stimuli in a
536 laboratory environment, with dedicated address space and the constraints
537 specified in the sections above.
538
539 The benchmarking network topology will be an independent test setup and
540 MUST NOT be connected to devices that may forward the test traffic into
541 a production network or misroute traffic to the test management network.
542
543 Further, benchmarking is performed on a "black-box" basis, relying
544 solely on measurements observable external to the DUT/SUT.
545
546 Special capabilities SHOULD NOT exist in the DUT/SUT specifically for
547 benchmarking purposes.  Any implications for network security arising
548 from the DUT/SUT SHOULD be identical in the lab and in production
549 networks.
550
551 # Acknowledgements
552
553 Many thanks to Alec Hothan of OPNFV NFVbench project for thorough
554 review and numerous useful comments and suggestions.
555
556 --- back