1. EPMO Open Source Coordination Office Redaction File Detail Report

Produced by Araxis Merge on 1/8/2018 2:40:02 PM Central Standard Time. See www.araxis.com for information about Merge. This report uses XHTML and CSS2, and is best viewed with a modern standards-compliant browser. For optimum results when printing this report, use landscape orientation and enable printing of background images and colours in your browser.

1.1 Files compared

# Location File Last Modified
1 C:\Users\VHANOLMcfadP\AraxisMergeCompare\Pri_un\ZIP\CPRS v32 Phase 2 Build 3 CIF Documents CPRS v32 Master Test Plan v1.32 (October 2017).docx Fri Nov 24 18:09:48 2017 UTC
2 C:\Users\VHANOLMcfadP\AraxisMergeCompare\Pri_re\ZIP\CPRS v32 Phase 2 Build 3 CIF Documents CPRS v32 Master Test Plan v1.32 (October 2017).docx Fri Jan 5 21:28:00 2018 UTC

1.2 Comparison summary

Description Between
Files 1 and 2
Text Blocks Lines
Unchanged 1 1842
Changed 0 0
Inserted 0 0
Removed 0 0

1.3 Comparison options

Whitespace
Character case Differences in character case are significant
Line endings Differences in line endings (CR and LF characters) are ignored
CR/LF characters Not shown in the comparison detail

1.4 Active regular expressions

No regular expressions were active.

1.5 Comparison detail

  1   Computeriz ed Patient  Record Sy stem (CPRS ) v32
  2   Master Tes t Plan
  3   Version 1. 32
  4  
  5   October 20 17
  6   Department  of Vetera ns Affairs
  7   Revision H istory
  8   Date
  9   Version
  10   Descriptio n
  11   Author
  12   10/06/2014
  13   1.0
  14   Creation
  15   Rishan Cha ndarana
  16   11/25/2014
  17   1.1
  18   Placed Rol es in Resp onsible Pa rty, Updat ed Formatt ing.  
  19   Rishan Cha ndarana
  20   12/24/2014
  21   1.2
  22   Monthly Up date
  23   Rishan Cha ndarana
  24   01/29/2015
  25   1.3
  26   Updated IO C testing  to reflect  joint tes ting with  Audio care .  Updated  Roles and  Responsib ilities.  
  27   Rishan Cha ndarana
  28   3/3/2015
  29   1.4
  30   Updated wi th Test En vironment
  31   Rishan Cha ndarana
  32   4/3/2015
  33   1.5
  34   Updated Ro les/Respon sibilities  
  35   Rishan Cha ndarana
  36   5/3/2015
  37   1.6
  38   Updated Tr aining 
  39   Rishan Cha ndarana
  40   6/3/2015
  41   1.7
  42   Monthly Up date/Corre cted date  formats in  revision.   
  43   Rishan Cha ndarana
  44   7/1/2015
  45   1.8
  46   Monthly Up date
  47   Rishan Cha ndarana
  48   7/31/2015
  49   1.9
  50   Changed Te st Deliver ables Resp onsibiliti es to Spec ify HP SQA  Analysts  where nece ssary.
  51   Changed Te st Deliver ables Test  Environme nt Respons ibility to  John Serv ice.
  52   Brian Watt
  53   8/31/2015
  54   1.10
  55   Monthly Up date, Upda ted Respon sibilities ; Updated  Training N eeds
  56   Rishan Cha ndarana, B rian Watt
  57   9/30/2015
  58   1.11
  59   Monthly Up date, Upda ted Test T eam and Te st Analyst s
  60   Brian Watt
  61   10/30/2015
  62   1.12
  63   Monthly Up date
  64   Brian Watt
  65   11/30/2015
  66   1.13
  67   Monthly Up date, Upda ted Staffi ng
  68   Brian Watt , Rishan C handarana
  69   12/30/2015
  70   1.14
  71   Monthly Up dates
  72   Brian Watt
  73   01/31/2016
  74   1.15
  75   Monthly Up dates; con vert to mo st recent  template
  76   Rishan Cha ndarana
  77   Brian Watt
  78   Juico Bowl ey
  79   03/02/2016
  80   1.16
  81   Monthly Up dates
  82   Rishan Cha ndarana
  83   04/04/2016
  84   1.17
  85   Monthly Up dates; Upd ated for 5 08 Complia nce
  86   Brian Watt
  87   Rishan Cha ndarana
  88   04/27/2016
  89   1.18
  90   Monthly Up dates
  91   Brian Watt
  92   05/31/2016
  93   1.19
  94   Updated St affing
  95   Rishan Cha ndarana
  96   6/30/2016
  97   1.20
  98   Monthly Up dates
  99   Brian Watt
  100   7/29/2016
  101   1.21
  102   Monthly Up dates
  103   Rishan Cha ndarana
  104   8/31/2016
  105   1.22
  106   Monthly Up dates
  107   Rishan Cha ndarana
  108   1/3/2017
  109   1.23
  110   Monthly Up dates
  111   Brian Watt
  112   2/28/2017
  113   1.24
  114   Monthly Up dates
  115   Brian Watt , Craig Hi nton
  116   3/31/2017
  117   1.25
  118   Monthly Up dates
  119   Brian Watt
  120   4/28/2017
  121   1.26
  122   Monthly Up dates 
  123   Brian Watt
  124   5/30/17
  125   1.27
  126   Monthly Up dates
  127   Brian Watt
  128   6/29/17
  129   1.28
  130   Monthly Up dates
  131  
  132   7/31/2017
  133   1.29
  134   Monthly Up dates
  135   Brian Watt
  136   8/30/2017
  137   1.30
  138   Monthly Up date
  139   Brian Watt
  140   9/29/2017
  141   1.31
  142   Monthly Up date
  143   Brian Watt
  144   10/31/2017
  145   1.32
  146   Monthly Up date
  147   Brian Watt
  148  
  149  
  150  
  151   Table of C ontents
  152   1.Introduc tion1
  153   1.1.Purpos e1
  154   1.2.Test O bjectives1
  155   1.3.Roles  and Respon sibilities 1
  156   1.4.Proces ses and Re ferences3
  157   2.Items To  Be Tested 3
  158   2.1.Overvi ew of Test  Inclusion s3
  159   2.2.Overvi ew of Test  Exclusion s4
  160   3.Test App roach4
  161   3.1.Produc t Componen t Test4
  162   3.2.Compon ent Integr ation Test 4
  163   3.3.System  Tests5
  164   3.4.User F unctionali ty Test5
  165   3.5.Enterp rise Syste m Engineer ing Testin g6
  166   3.6.Initia l Operatin g Capabili ty Evaluat ion6
  167   4.Testing  Techniques 6
  168   4.1.Risk-b ased Testi ng6
  169   4.2.Enterp rise Testi ng6
  170   4.2.1.Secu rity Testi ng7
  171   4.2.2.Priv acy Testin g7
  172   4.2.3.Sect ion 508 Co mpliance T esting7
  173   4.2.4.Mult i-Division al Testing 7
  174   4.3.Perfor mance and  Capacity T esting7
  175   4.4.Test T ypes8
  176   4.5.Produc tivity and  Support T ools10
  177   5.Test Cri teria10
  178   5.1.Proces s Reviews1 0
  179   5.2.Pass/F ail Criter ia11
  180   5.3.Suspen sion and R esumption  Criteria11
  181   6.Test Del iverables1 1
  182   7.Test Sch edule13
  183   8.Test Env ironments1 3
  184   8.1.Test E nvironment  Configura tions13
  185   8.2.Base S ystem Hard ware14
  186   8.3.Base S oftware El ements in  the Test E nvironment s15
  187   9.Staffing  and Train ing Needs1 5
  188   10.Risks a nd Constra ints16
  189   11.Test Me trics16
  190   Attachment  A – Appro val Signat ures17
  191   Appendix A  - Test Ty pe Definit ions18
  192  
  193   Introducti on
  194   Purpose
  195   The purpos e of this  Master Tes t Plan for  the Compu terize Pat ient Recor d System v 32 Develop ment Proje ct is to d ocument th e overall  approach t o validate  and verif y the func tionality  delivered  in version  32 of the  Computeri zed Patien t Record S ystem (CPR S) Graphic al User In terface (G UI).  CPRS  v32 encom passes bot h new func tionality  as well as  enhanceme nts to exi sting func tionality.   In addit ion to mod ifying CPR S, this pr oject/plan  encompass es modific ations to  Text Integ ration Uti lity, Inpa tient Medi cations, O utpatient  Pharmacy,  Pharmacy D ata Manage ment, Barc ode Medica tion Admin istration,  Adverse R eaction Tr acking, Cl inical Rem inders, an d Laborato ry.
  196   Test Objec tives
  197   This Maste r Test Pla n supports  the follo wing objec tives:
  198   To provide  test cove rage for 1 00% of the  documente d requirem ents
  199   To provide  coverage  for System / Software  Design Do cument ele ments 
  200   To execute  100% of t he test ca ses during  User Func tionality  Testing
  201   To create,  maintain  and contro l the test  environme nt
  202   Roles and  Responsibi lities
  203   Table 1 li sts the ke y roles an d their re sponsibili ties for t his Master  Test Plan .
  204   Table 1: R oles and D escription s
  205   Role
  206   Descriptio n
  207   Team Membe rs
  208   Developmen t Team 
  209   Persons th at build o r construc t the prod uct/produc t componen t.
  210   Jamie Crum ley, Ty Ph elps, Andr ey Andriye vskiy, And rea Freema n, Nick Co stanzo, Je ff Swesky 
  211  
  212   [Previous  Developers  Robert La uro, Kim H ovorka, Mi ke Jenkins ]
  213  
  214   Developmen t Manager
  215   Person res ponsible f or assisti ng with th e creation  and imple mentation  of the Mas ter Test P lan.
  216   Craig Hint on, Rishan  Chandaran a
  217   Program Ma nager
  218   Person tha t has over all respon sibility f or the suc cessful pl anning and  execution  of a proj ect; perso n responsi ble for cr eating the  Master Te st Plan in  collabora tion with  the Develo pment Mana ger. 
  219   Mike Brait hwaite, Ke nny, Condi e, Michael  Keener, A pril Scott
  220   Stakeholde rs
  221   Persons th at hold a  stake in a  situation  in which  they may a ffect or b e affected  by the ou tcome.
  222   End users- health car e provider s
  223   Test Analy st
  224   Person res ponsible f or ensurin g full exe cution of  the test p rocess to  include th e verifica tion of te chnical re quirements  and the v alidation  of busines s requirem ents. 
  225   Brian Watt , Juico Bo wley, Rebe cca Russel l, Susan S corzato
  226   Test Lead
  227   An experie nced Test  Analyst or  member of  the Test  Team that  leads and  coordinate s activiti es related  to all as pects of t esting bas ed on an a pproved Ma ster Test  Plan and s chedule.
  228   Brian Watt , Juico Bo wley
  229   Test Team/ Testers
  230   Persons th at execute  tests and  ensure th e test env ironment w ill adequa tely suppo rt planned  test acti vities.
  231   Brian Watt , Juico Bo wley, Rebe cca Russel l, Susan S corzato
  232   Test Envir onment Tea m
  233   Persons th at establi sh, mainta in, and co ntrol test  environme nts.
  234   John Servi ce
  235   Processes  and Refere nces
  236   The proces ses that g uide the i mplementat ion of thi s Master T est Plan a re:
  237   Test Prepa ration
  238   Product Bu ild 
  239   Independen t Test and  Evaluatio n
  240   The refere nces that  support th e implemen tation of  this Maste r Test Pla n are:
  241   ProPath
  242   Section 50 8 Office W eb Page
  243   Privacy Im pact Asses sment - Pr ivacy Serv ice
  244   The refere nces that  support th e implemen tation of  this Maste r Test Pla n are:
  245   Business R equirement  Document  (BRD)  Ver sion <#.#> , Date <Mo nth, Year>
  246   Requiremen ts Specifi cation Doc ument (RSD ) Version  1.30, Date  – March 2 017
  247   System Des ign Docume nt (SDD) V ersion 1.1 6, Date –  January, 2 016
  248   Requiremen ts Traceab ility Matr ix (RTM) V ersion 1.3 0, Date –  March, 201 7
  249   Risk Log V ersion <#. #>, Date < Month, Yea r>
  250   Items To B e Tested
  251   Items to b e tested i nclude the  following :
  252   The CPRS G UI.
  253   VistA Patc hes for th e applicat ions being  developed .
  254   CPRS throu gh VistA.
  255   Installati on Guide.
  256   User Guide
  257   Interface  between af fected pat ches.
  258   Overview o f Test Inc lusions
  259   The follow ing compon ents and f eatures an d combinat ions of co mponents a nd feature s will be  tested:
  260   The CPRS G UI and ins tallation  tools and  distributi on methods .  
  261   VistA Patc hes and in stallation  tools and  distribut ion method s.  
  262   Installati on Guide a s well as  document d istributio n methods.   
  263   User Guide  as well a s document  distribut ion method s.  
  264   Interfaces  between a ffected pa ckages (fo r example,  Inpatient  Medicatio ns and CPR S, Audioca re).
  265   Overview o f Test Exc lusions
  266   The follow ing compon ents and f eatures an d combinat ions of co mponents a nd feature s will not  be tested :
  267   Applicatio ns not inc luded in t he CPRS v3 2 effort,  especially  applicati ons that d o not inte ract with  CPRS.  
  268   Test Appro ach
  269   Product Co mponent Te st
  270   The Develo per perfor ms Product  Component  Testing ( aka Unit T esting) wh ich includ es the int ernal tech nical and  functional  testing o f a module /component  of code a nd is resp onsible fo r the veri fication o f the requ irements d efined in  the detail ed design  specificat ion have b een succes sfully app lied to th e module/c omponent u nder test.  Steps inc lude:
  271   Analyze re quirements  to unders tand the a pplication  functiona lity and d ependencie s
  272   Identify a ll the rou tines affe cted by th e module o r object
  273   Specify al l the rout ines that  are called  from vari ous locati ons
  274   Execute te sts on pri oritized o ptions
  275   Execute te sts with d ifferent c ombination s of optio ns and dat a. For exa mple, test  with mini mal data e ntered and  test with  maximal d ata entere d
  276   Perform ex ploratory  testing, i .e., rando mly exerci se the mod ule, objec t, and opt ions based  upon doma in knowled ge, past p erformance , and expe rtise
  277   Record the  actual te st results
  278   Perform st atic analy sis of mod ule/compon ent source  code
  279  
  280   If a defec t is ident ified and  it is rela ted to the  code bein g develope d that cod e will con tinue to b e develope d until it  successfu lly passes  the unit  test.  
  281   If the def ect is not  related t o the code  being dev eloped it  will be ad dressed by  the follo wing metho ds:
  282   If it is a  software  defect tha t is withi n the scop e of this  project, i t will be  added to t he project  backlog.   
  283   If it is a  software  defect tha t is outsi de of the  scope of t his projec t it will  be referre d to the e xisting ma intenance  structure.   
  284   If the sof tware defe ct is not  truly a de fect and r equires a  change in  functional ity it wil l be repor ted with a  suggestio n to enter  a new ser vice reque st.  
  285   Component  Integratio n Test
  286   The Test A nalyst ins talls the  Product Co mponent an d performs  component  integrati on testing . Product  Component  Integratio n testing  is perform ed to expo se defects  in the in terfaces a nd interac tion betwe en integra ted compon ents as we ll as veri fying inst allation i nstruction s. Compone nt integra tion testi ng include s testing  of Identit y and Acce ss Managem ent Integr ation Serv ice Patter n changes.  The Softw are Qualit y Assuranc e Review C hecklist i s started  during thi s activity .
  287   If a defec t is ident ified and  it is rela ted to the  code bein g develope d the defe ct will be  added to  the projec t backlog.   
  288   If the def ect is not  related t o the code  being dev eloped it  will be ad dressed by  the follo wing metho ds:
  289   If it is a  software  defect tha t is withi n the scop e of this  project, i t will be  added to t he project  backlog.
  290   If it is a  software  defect tha t is outsi de of the  scope of t his projec t it will  be referre d to the e xisting ma intenance  structure.   
  291   If the sof tware defe ct is not  truly a de fect and r equires a  change in  functional ity it wil l be repor ted with a  suggestio n to enter  a new ser vice reque st.
  292  
  293   System Tes ts
  294   The Test A nalyst per forms Syst em Tests e mploying a  variety o f test typ es (i.e.,  compliance , regressi on, access  control,  interopera bility, us ability (i ncluding 5 08 complia nce), etc. ). System  Tests exer cise all p arts of an  integrate d system i ncluding i nterfaces  to externa l systems.
  295   If a defec t is ident ified and  it is rela ted to the  code bein g develope d the defe ct will be  added to  the projec t backlog.   
  296   If the def ect is not  related t o the code  being dev eloped it  will be ad dressed by  the follo wing metho ds:
  297   If it is a  software  defect tha t is withi n the scop e of this  project, i t will be  added to t he project  backlog.
  298   If it is a  software  defect tha t is outsi de of the  scope of t his projec t it will  be referre d to the e xisting ma intenance  structure.   
  299   If the sof tware defe ct is not  truly a de fect and r equires a  change in  functional ity it wil l be repor ted with a  suggestio n to enter  a new ser vice reque st.  
  300   User Funct ionality T est
  301   The VA Pro ject Manag er ensures  the User  Functional ity Test ( UFT) is co nducted. U FT is a fo rmal test  conducted  by the end -users to  determine  whether a  system sat isfies its  acceptanc e criteria  and enabl es the cus tomer to d etermine w hether to  accept the  system. T he purpose  of the Us er Functio nality Tes t is to (1 ) exercise  the funct ionality o f the appl ication us ing test d ata in a c ontrolled  test envir onment in  order to v alidate fu nctionalit y and (2)  evaluate t he usabili ty of a co mponent or  system. A dditionall y, during  User Funct ionality T esting, En terprise S hared Serv ice functi onality, s uch as Ide ntity and  Access Man agement, a re tested.
  302   Enterprise  System En gineering  Testing
  303   The VA Pro ject Manag er reviews  all testi ng intake  assessment  results,  including  Risk Analy sis and Te sting Scop e Report ( RATSR) or  Testing In take Analy sis (TIA)  closure em ail. The V A Project  Manager th en incorpo rates ESE  Enterprise  Testing S ervices (E TS) Indepe ndent Test ing and/or  Systems Q uality Ass urance Ser vice (SQAS ) independ ent testin g services  required  in the Ris k Assessme nt Testing  Scope Rep ort (RATSR ) into pro ject plans  and sched ules.
  304   At this po int a dete rmination  will be ma de if it i s necessar y to condu ct indepen dent testi ng, whethe r it is SQ AS/IV&V Te sting, or  ESE Testin g.  
  305   Initial Op erating Ca pability E valuation
  306   The Initia l Operatin g Capabili ty (IOC) I mplementat ion Manage r coordina tes the pe rformance  of the IOC  evaluatio n. IOC eva luation (f ormerly kn own as fie ld testing ) is when  a product/ system tha t has been  modified/ enhanced i s placed i nto a limi ted number  of produc tion (live ) environm ents, in o rder to ev aluate the  new featu res and fu nctionalit y of the p roduct/sys tem and to  ascertain  if the fe atures and  functiona lity perfo rm as expe cted and d o not adve rsely affe ct the exi sting func tionality  of the pro duct/syste m. Activit ies includ e:
  307   Distribute  the produ ct and pro duct docum entation t o the Eval uation Sit es 
  308   Facilitate  the timel y installa tions at t he Evaluat ion Sites
  309   Conduct fo rmal or bi -weekly Ev aluation S ite calls
  310   Track defe cts identi fied durin g Initial  Operating  Capability  Evaluatio n
  311   Address is sues and q uestions i dentified  during eva luation
  312   Obtain Sit e Concurre nce Statem ents
  313   CPRS v32 m akes modif ications t hat impact  the Audio care appli cation.  I OC testing  for CPRS  v32 will b e conducte d in tande m with IOC  testing f or the Aud iocare app lication.   
  314   Testing Te chniques
  315   Risk-based  Testing
  316   The follow ing table  will be up dated as r isks are i dentified:
  317   Table 2: R isks and P riorities
  318   Risk
  319   Priority
  320   Test Type/ Test Case
  321   Configurat ion Manage ment based  Integrati on Testing
  322   High
  323   Details TB D, continu ous integr ation test ing will b e performe d to verif y that mod ules integ rate appro priately a nd do not  cause adve rse intera ctions wit h existing  or previo usly devel oped softw are. 
  324   Integratio n of modif ications f rom other  software p rojects su ch as MOCH A (Medicat ion Order  Check Heal thcare App lication)
  325   High
  326   Details TB D, integra tion testi ng will be  performed  regularly  and test  scripts wi ll be upda ted to ref lect 
  327   Enterprise  Testing
  328   Cite how t he project  testing c overs the  enterprise  requireme nts. Enter prise requ irements i nclude sec urity, pri vacy, Sect ion 508 Co mpliance r equirement s, and Mul ti-divisio nal requir ements. 
  329  
  330   Security T esting
  331   Security T esting wil l be perfo rmed by th e testing  services g roup.  Bas ic testing  such as b oundary te sting, sig n in proce dures etc.  will be p erformed b y the Test  Analysts.   
  332   Privacy Te sting
  333   Privacy Te sting will  be perfor med by the  testing s ervices gr oup.  CPRS  is a prov ider facin g applicat ion and as  such the  applicatio n makes se nsitive in formation  such as Pr otected He alth Infor mation (PH I) and Per sonally Id entifiable  Informati on (PII) v isible to  applicatio n users.   Test Analy sts will p erform bas ic testing  to valida te that pr ivacy guid elines are  being fol lowed.  
  334   Section 50 8 Complian ce Testing
  335   Section 50 8 Complian ce Testing  will be p erformed b y the Test  Analysts  on the tea m.  They w ill follow  guideline s set fort h by the p rogram off ice to val idate that  the appli cation is  Section 50 8 complian t.  Tests  include ut ilizing JA WS (Job Ac cess With  Speech) Sc reen Reade r software  to valida te that th e screen r eader and  the visual  functiona lity are i n alignmen t.  
  336   Multi-Divi sional Tes ting
  337   Multi-divi sional tes ting will  be conduct ed during  the Initia l Operatin g Capabili ty (IOC) t esting pha se by an I ntegrated  Test Site.   In addit ion the te st environ ment will  be multi-d ivisional.   
  338   Performanc e and Capa city Testi ng 
  339   TBD
  340   Develop te sts to ens ure the ap plication  will perfo rm as expe cted under  anticipat ed user lo ads, and t ypical bus iness tran sactions r espond in  a timely m anner. Dur ing the te st executi on, the Sy stem Under  Test (SUT ) is activ ely monito red for an y issues t hat could  affect app lication p erformance , and to v erify the  hardware e nvironment  is adequa tely sized .
  341   This type  of testing  covers th e requirem ents speci fied in th e “Perform ance Speci fications”  in the Re quirements  Specifica tion Docum ent found  in the Req uirements  process in  ProPath.
  342   Test Types
  343   Table 2: T est Types
  344   Test Types
  345   Party Resp onsible
  346   Access con trol testi ng
  347   HP Test An alysts, De velopers
  348   Build veri fication t esting
  349   HP Test An alysts, De velopers
  350   Business c ycle testi ng
  351   HP Test An alysts
  352   Compliance  testing
  353   HP Test An alysts, De velopers
  354   Component  integratio n testing
  355   HP Test An alysts, De velopers
  356   Configurat ion testin g
  357   HP Test An alysts
  358   Data and d atabase in tegrity te sting
  359   HP Test An alysts, De velopers
  360   Documentat ion testin g
  361   HP Test An alysts, De velopers
  362   Error anal ysis testi ng
  363   Developers
  364   Explorator y testing
  365   HP Test An alysts
  366   Failover t esting
  367   HP Test An alysts, De velopers
  368   Installati on testing
  369   HP Test An alysts, De velopers
  370   Integratio n testing
  371   Developers
  372   Migration  testing
  373   HP Test An alysts
  374   Multi-divi sional tes ting
  375   HP Test An alysts
  376   Parallel t esting
  377   HP Test An alysts, De velopers
  378   Performanc e monitori ng testing
  379   TBD
  380   Performanc e testing
  381   TBD
  382   Performanc e - Benchm ark testin g
  383   TBD
  384   Performanc e - Conten tion testi ng
  385   TBD
  386   Performanc e - Endura nce testin g
  387   TBD
  388   Performanc e - Load t esting
  389   TBD
  390   Performanc e - Profil ing testin g
  391   TBD
  392   Performanc e - Spike  testing
  393   TBD
  394   Performanc e - Stress  testing
  395   TBD
  396   Privacy te sting
  397   HP Test An alysts, De velopers
  398   Product co mponent te sting
  399   Developers
  400   Recovery t esting
  401   TBD
  402   Regression  test
  403   HP Test An alysts, De velopers
  404   Risk based  testing
  405   HP Test An alysts, De velopers
  406   Section 50 8 complian ce testing
  407   HP Test An alysts, De velopers
  408   Security t esting
  409   HP Test An alysts
  410   Smoke test ing
  411   HP Test An alysts, De velopers
  412   System tes ting
  413   HP Test An alysts, De velopers
  414   Usability  testing
  415   HP Test An alysts, De velopers
  416   User Funct ionality T esting
  417   HP Test An alysts, De velopers
  418   User inter face testi ng
  419   HP Test An alysts, De velopers
  420   Productivi ty and Sup port Tools
  421   Add or del ete tools  as appropr iate.
  422   Table 3 de scribes th e tools th at will be  employed  to support  this Mast er Test Pl an.
  423   Table 3: T ool Catego ry or Type s
  424   Tool Categ ory or Typ e
  425   Tool Brand  Name
  426   Vendor or  In-house
  427   Version
  428   Test Manag ement
  429   TBD
  430  
  431  
  432   Defect Tra cking
  433   Rational J azz Tool
  434   IBM 
  435  
  436   Test Cover age Monito r or Profi ler
  437   TBD
  438  
  439  
  440   Project Ma nagement
  441   Project
  442   Microsoft
  443  
  444   Performanc e Testing
  445   TBD
  446  
  447  
  448   Configurat ion Manage ment
  449   Rational J azz Tool
  450   IBM
  451  
  452   DBMS tools
  453   Reflection  for UNIX  and OpenVM S
  454   Attachmate
  455  
  456   Document R epository
  457   Microsoft  SharePoint
  458  
  459  
  460   Shared Dri ve
  461   Microsoft
  462  
  463  
  464   Test Crite ria
  465   Process Re views
  466   The Master  Test Plan  under goe s two revi ews:
  467   Peer Revie w – upon c ompletion  of the Mas ter Test P lan
  468   Formal Rev iew – afte r the Deve lopment Ma nager appr oves the M aster Test  Plan
  469  
  470   The Master  Test Plan  does serv e as an in put or Art ifact Used  for the P rocess Qua lity Gate  Review for  Product B uild as we ll as for  the Go No  Review (Mi lestone) f or Indepen dent Testi ng.
  471   For more i nformation  on the re views asso ciated wit h testing,  see the P roduct Bui ld, Test P reparation , and Inde pendent Te st and Eva luation pr ocesses.
  472  
  473   Pass/Fail  Criteria
  474   Incidents  identified  during th e executio n of this  test plan  will be ev aluated to  determine  their sev erity.  Th is impact  will be re corded in  the severi ty section  of the Ja zz defect.
  475   High Impac t Test Inc ident is a n error or  lack of f unctionali ty that:
  476   Jeopardize s patient  or personn el safety  by corrupt  or incorr ect data
  477   Has no wor karound to  provide s imilar fun ctionality  and this  functional ity is req uired to m ove to sys tem, integ ration, or  user acce ptance
  478   Adversely  affects al l users or  key user  functional ity
  479   Medium Imp act Test I ncident is  an error  or lack of  functiona lity that:
  480   Has a reas onable wor karound to  maintain  functional ity
  481   Impacts a  small grou p of users , but has  workaround
  482   Functional ity works  but not to  requireme nts, speci fications,  or standa rds and wo rkflow is  not hamper ed
  483   Low Impact  Test Inci dent is an  error or  lack of fu nctionalit y that may  cause ope rator/user  inconveni ence and m inimally a ffects ope rational p rocessing.
  484   Spelling e rrors
  485   Minor GUI  Graphical/ Formatting  errors th at do not  affect fun ctionality /visibilit y
  486   Enhancemen t Test Inc ident is s omething t hat would  be “nice”  to have in  the integ ration pie ce but was  not inclu ded in the  specifica tions for  this relea se. 
  487  
  488   All High a nd Medium  defects sh all be add ressed or  negotiated  prior to  release.   Any limita tion or ou tstanding  test incid ent shall  have an ap proved con tingency p rocess (wo rkaround)  in place.   
  489   Suspension  and Resum ption Crit eria 
  490   Testing wi ll cease o n a test i tem when a  high impa ct test in cident is  logged.  T esting wil l resume w hen the in cident is  resolved.
  491   Testing wi ll cease o n the enti re release  when thre e high imp act test i ncidents a re logged.   Testing  will resum e when the  incidence  are addre ssed.
  492   Acceptance  Criteria
  493   All High a nd Medium  defects sh all be add ressed or  negotiated  prior to  release. A ny limitat ion or out standing t est incide nt shall h ave an app roved cont ingency pr ocess (wor karound) i n place.
  494  
  495   Test Deliv erables
  496   The Test D eliverable s listed b elow repre sent some  possible d eliverable s for a te sting proj ect. The T est Delive rables tab le may be  tailored t o meet pro ject needs . Do not i nclude Del ete any li sted test  deliverabl e that is  not used b y the Prod uct Build,  Test Mana gement, an d Independ ent Test a nd Evaluat ion proces ses. 
  497   Table 4 li sts the te st deliver ables for  the CPRS v 32 project .
  498   Table 4: T est Delive rables
  499   Test Deliv erables
  500   Responsibl e Party
  501   Master Tes t Plan
  502   HP SQA Ana lyst
  503   Iteration  Test Plans  (when app ropriate)
  504   HP SQA Ana lyst
  505   Test Execu tion Risks  
  506   VA/HP PM
  507   Test Sched ule
  508   VA/HP PM
  509   Test Cases /Test Scri pts
  510   HP SQA Ana lyst
  511   Test Data
  512   HP SQA Ana lyst
  513   Test Envir onment
  514   John Servi ce
  515   Test Evalu ation Summ aries
  516   HP SQA Ana lyst
  517   Traceabili ty Report  or Matrix
  518   HP SQA Ana lyst
  519   Master Tes t Plan
  520   HP SQA Ana lyst
  521   Test Sched ule
  522   List the m ajor testi ng milesto nes. When  appropriat e, referen ce other w orkflow do cumentatio n or tools , such as  the Projec t Manageme nt Plan, o r Work Bre akdown Str ucture (WB S.) Put a  minimum am ount of pr ocess and  planning i nformation  within th e Master T est Plan i n order to  facilitat e ongoing  maintenanc e of the t est schedu le.
  523   Table 5: T esting Mil estones
  524   Testing Mi lestones
  525   Responsibl e Party
  526   Approved M aster Test  Plan
  527   HP SQA Ana lyst
  528   Approved g eneric tes t cases (h igh level  list)
  529   HP SQA Ana lyst
  530   Complete a nd stable  requiremen ts (SRS or  CRs)
  531   HP SQA Ana lyst
  532   Creating o f Test Env ironment(s )
  533   HP SQA Ana lyst
  534   Submit and  manage re quest for  Testing Se rvices
  535   HP SQA Ana lyst
  536   Test Cases  selected  for releas e and ente red using  MS Excel S preadsheet  on SQA Sh arePoint
  537   HP SQA Ana lyst
  538   Completion  of Patch  verificati on
  539   HP SQA Ana lyst
  540   SQA Testin g conducte d (execute  the selec ted Test C ases) in T est enviro nment(s)
  541   HP SQA Ana lyst
  542   Remedy Tic kets
  543   HP SQA Ana lyst
  544   Defects id entified a nd entered  into CQ
  545   HP SQA Ana lyst
  546   Test Envir onments
  547   A test env ironment i s an envir onment con taining ha rdware, in strumentat ion, simul ators, sof tware tool s, and oth er support  elements  needed to  conduct a  test.
  548   Test Envir onment Con figuration
  549   The party  or parties  responsib le for con figuring a nd maintai ning the t est enviro nments are : John Ser vice & Bay  Pines Tes t Lab
  550   The test e nvironment  will be h osted at t he Bay Pin es Test La b, DAYT79.
  551  
  552   Base Syste m Hardware
  553   Table 6 se ts forth t he system  resources  for the te st effort  presented  in this Ma ster Test  Plan.
  554   The specif ic element s of the t est system  may not b e fully un derstood i n early it erations,  so this se ction may  be complet ed over ti me. The te st system  should sim ulate the  production  environme nt as clos ely as pos sible, sca ling down  the concur rent acces s and data base size,  and so fo rth, if an d where ap propriate.  Tailor th e System H ardware Re sources ta ble as req uired.
  555   Table 6: S ystem Hard ware Resou rces
  556   Resource
  557   Quantity
  558   Name and T ype
  559   Database S erver
  560  
  561  
  562   Network or  Subnet
  563  
  564   TBD
  565   Server Nam e
  566  
  567   TBD
  568   Database N ame
  569  
  570   TBD
  571   Client Tes t PCs
  572  
  573  
  574   Include sp ecial conf iguration  requiremen ts
  575  
  576   TBD
  577   Test Repos itory
  578  
  579  
  580   Network or  Subnet
  581  
  582   TBD
  583   Server Nam e
  584  
  585   TBD
  586   Test Devel opment PCs
  587  
  588   TBD
  589  
  590   Base Softw are Elemen ts in the  Test Envir onments
  591   Add or del ete Softwa re Element s as appro priate. If  necessary , specify  software p atches ref erenced an d/or requi red here.
  592   Table 7 de scribes th e base sof tware elem ents that  are requir ed in the  test envir onment for  this Mast er Test Pl an.
  593   Table 7: S oftware El ements
  594   Software E lement Nam e
  595   Version
  596   Type and O ther Notes
  597   Windows
  598   7
  599   Operating  System
  600   Intersyste ms Cache
  601   2014
  602   MUMPS envi ronment
  603   Delphi
  604   XE3
  605   GUI source  code
  606   Staffing a nd Trainin g Needs
  607   Table 8 de scribes th e personne l resource s needed t o plan, pr epare, and  execute t his Master  Test Plan .
  608   Table 8: S taffing Re sources
  609   Testing Ta sk
  610   Quantity o f Personne l Needed
  611   Test Proce ss
  612   Duration/  Days
  613   Create the  Master Te st Plan
  614  
  615   Test Prepa ration
  616   xxx days
  617   Establish  the Test E nvironment
  618  
  619   Test Prepa ration
  620   xxx days
  621   Perform Sy stem Tests
  622  
  623   Product Bu ild 
  624   xxx days
  625   Etc.
  626  
  627  
  628  
  629   Identify t raining op tions for  providing  necessary  skills and  the estim ated numbe r of hours  necessary  to comple te the tra ining.
  630   Table 9 li sts the pe rsonnel th at require  training.
  631   Table 9: T raining Ne eds
  632   Name
  633   Training N eed
  634   Training O ption
  635   Estimated  Training H ours
  636   Andrey And riyevskiy
  637   IBM Ration al Jazz ®
  638   Obtain IBM  Rational  Jazz ® tra ining 
  639   6 hours
  640   Christophe r Bell
  641   IBM Ration al Jazz ®
  642   Obtain IBM  Rational  Jazz ® tra ining 
  643   6 hours
  644    Juico Bow ley 
  645   IBM Ration al Jazz ®
  646   Obtain IBM  Rational  Jazz ® tra ining 
  647   6 hours
  648   Rishan Cha ndarana
  649   IBM Ration al Jazz ®
  650   Obtain IBM  Rational  Jazz ® tra ining 
  651   6 hours
  652   Nicholas C ostanzo
  653   IBM Ration al Jazz ®
  654   Obtain IBM  Rational  Jazz ® tra ining 
  655   6 hours
  656   Jamie Crum ley
  657   IBM Ration al Jazz ®
  658   Obtain IBM  Rational  Jazz ® tra ining 
  659   6 hours
  660   Andrea Fre eman
  661   IBM Ration al Jazz ®
  662   Obtain IBM  Rational  Jazz ® tra ining
  663   6 hours
  664   Craig O. H inton
  665   IBM Ration al Jazz ®
  666   Obtain IBM  Rational  Jazz ® tra ining 
  667   6 hours
  668   Kim C. Hov orka
  669   IBM Ration al Jazz ®
  670   Obtain IBM  Rational  Jazz ® tra ining 
  671   6 hours
  672   Robert  La uro
  673   IBM Ration al Jazz ®
  674   Obtain IBM  Rational  Jazz ® tra ining 
  675   6 hours
  676   Joe Niksic h
  677   IBM Ration al Jazz ®
  678   Obtain IBM  Rational  Jazz ® tra ining 
  679   6 hours
  680   Ty Phelps
  681   IBM Ration al Jazz ®
  682   Obtain IBM  Rational  Jazz ® tra ining 
  683   6 hours
  684   Blair Sand ers
  685   IBM Ration al Jazz ®
  686   Obtain IBM  Rational  Jazz ® tra ining 
  687   6 hours
  688   Susan Scor zato
  689   IBM Ration al Jazz ®
  690   Obtain IBM  Rational  Jazz ® tra ining
  691   6 hours
  692   April Scot t  
  693   IBM Ration al Jazz ®
  694   Obtain IBM  Rational  Jazz ® tra ining 
  695   6 hours
  696   Brian Watt
  697   IBM Ration al Jazz ®
  698   Obtain IBM  Rational  Jazz ® tra ining
  699   6 hours
  700   Risks and  Constraint s
  701   The risk l og was tak en into co nsideratio n in the d evelopment  of this t est plan. 
  702   The risks  identified  in this M aster Test  Plan can  be found i n the risk  log and m ay be reco rded and t racked in  an automat ed tool, s uch as, IB M Rational  Jazz®. 
  703  
  704   Test Metri cs
  705   Metrics ar e a system  of parame ters or me thods for  quantitati ve and per iodic asse ssment of  a process  that is to  be measur ed. 
  706   Test metri cs may inc lude, but  are not li mited to:
  707   Number of  test cases  (pass/fai l)
  708   Percentage  of test c ases execu ted 
  709   Number of  requiremen ts and per centage te sted
  710   Percentage  of test c ases resul ting in de fect detec tion
  711   Number of  defects at tributed t o test cas e/test scr ipt creati on
  712   Percentage  of defect s identifi ed; listed  by cause  and severi ty
  713   Time to re -test 
  714  
  715   Attachment  A – Appro val Signat ures
  716   The Master  Test Plan  documents  the proje ct’s overa ll approac h to testi ng and inc ludes:
  717   Items to b e tested
  718   Test strat egy
  719   Test crite ria
  720   Test deliv erables
  721   Test sched ule
  722   Test envir onments
  723   Staffing a nd trainin g needs
  724   Risks and  constraint s
  725   Test Metri cs
  726   This secti on is used  to docume nt the app roval of t he Master  Test Plan  during the  Formal Re view.  The  review sh ould be id eally cond ucted face  to face w here signa tures can  be obtaine d ‘live’ d uring the  review how ever the f ollowing f orms of ap proval are  acceptabl e: 
  727   Physical s ignatures  obtained f ace to fac e or via f ax 
  728   Digital si gnatures t ied crypto graphicall y to the s igner 
  729   /es/ in th e signatur e block pr ovided tha t a separa te digital ly signed  e-mail ind icating th e signer’s  approval  is provide d and kept  with the  document.
  730   NOTE:  Del ete the en tire secti on above p rior to fi nal submis sion.
  731  
  732   REVIEW DAT E: <Date>
  733  
  734  
  735   Signed:Dat e: 
  736   < Program/ Project Ma nager >
  737  
  738  
  739   Signed:Dat e: 
  740   < Business  Sponsor R epresentat ive >
  741  
  742  
  743   Signed:Dat e: 
  744   <Project T eam Test M anager>
  745   Appendix A  - Test Ty pe Definit ions
  746   Test Type
  747   Definition
  748   Access Con trol Testi ng
  749   A type of  testing th at attests  that the  target-of- test data  (or system s) are acc essible on ly to thos e actors f or which t hey are in tended, as  defined b y use case s. Access  Control Te sting veri fies that  access to  the system  is contro lled and t hat unwant ed or unau thorized a ccess is p rohibited.  This test  is implem ented and  executed o n various  targets-of -test.
  750   Benchmark  Testing:
  751   A type of  performanc e testing  that compa res the pe rformance  of new or  unknown fu nctionalit y to a kno wn referen ce standar d (e.g., e xisting so ftware or  measuremen ts). For e xample, be nchmark te sting may  compare th e performa nce of cur rent syste ms with th e performa nce of the  Linux/Ora cle system .
  752   Build Veri fication T esting
  753   (Prerequis ite: Smoke  Test)
  754   A type of  testing pe rformed fo r each new  build, co mparing th e baseline  with the  actual obj ect proper ties in th e current  build. The  output fr om this te st indicat es what ob ject prope rties have  changed o r don’t me et the req uirements.  Together  with the S moke test,  the Build  Verificat ion test m ay be util ized by pr ojects to  determine  if additio nal functi onal testi ng is appr opriate fo r a given  build or i f a build  is ready f or product ion.
  755   Business C ycle Testi ng
  756   A type of  testing th at focuses  upon acti vities and  transacti ons perfor med end to  end over  time. This  test type  executes  the functi onality as sociated w ith a peri od of time  (e.g., on e-week, mo nth, or ye ar). These  tests inc lude all d aily, week ly, and mo nthly cycl es, and ev ents that  are date-s ensitive ( e.g., end  of the mon th managem ent report s, monthly  reports,  quarterly  reports, a nd year-en d reports) .
  757   Capacity T esting
  758   Capacity t esting occ urs when y ou simulat e the numb er of user s in order  to stress  an applic ation's ha rdware and /or networ k infrastr ucture. Ca pacity tes ting is do ne to dete rmine the  capacity ( CPU, Data  Storage, L AN, WAN, e tc.) of th e system a nd/or netw ork under  test.
  759   Compliance  Testing
  760   A type of  testing th at verifie s that a c ollection  of softwar e and hard ware fulfi lls given  specificat ions. For  example, t hese tests  will mini mally incl ude: “core  specifica tions for  rehosting  – ver.1.5- draft 3.do c”, Sectio n 508 of T he Rehabil itation Ac t Amendmen ts of 1998 , Race and  Ethnicity  Test, and  VA Direct ive 6102 C ompliance.  It does n ot exclude  any other  tests tha t may also  come up.
  761   Component  Integratio n Testing
  762   Testing pe rformed to  expose de fects in t he interfa ces and in teraction  between in tegrated c omponents  as well as  verifying  installat ion instru ctions.
  763   Configurat ion Testin g
  764   A type of  testing co ncerned wi th checkin g the prog rams compa tibility w ith as man y possible  configura tions of h ardware an d system s oftware. I n most pro duction en vironments , the part icular har dware spec ifications  for the c lient work stations,  network co nnections,  and datab ase server s vary. Cl ient works tations ma y have dif ferent sof tware load ed, for ex ample, app lications,  drivers,  and so on  hand, at a ny one tim e; many di fferent co mbinations  may be ac tive using  different  resources . The goal  of the co nfiguratio n test is  finding a  hardware c ombination  that shou ld be, but  is not, c ompatible  with the p rogram.
  765   Contention  Testing
  766   A type of  performanc e testing  that execu tes tests  that cause  the appli cation to  fail with  regard to  actual or  simulated  concurrenc y. Content ion testin g identifi es failure s associat ed with lo cking, dea dlock, liv elock, sta rvation, r ace condit ions, prio rity inver sion, data  loss, los s of memor y, and lac k of threa d safety i n shared s oftware co mponents o r data. 
  767   Data and D atabase In tegrity Te sting
  768   A type of  testing th at verifie s that dat a is being  stored by  the syste m in a man ner where  the data i s not comp romised by  the initi al storage , updating , restorat ion, or re trieval pr ocessing.  This type  of testing  is intend ed to unco ver design  flaws tha t may resu lt in data  corruptio n, unautho rized data  access, l ack of dat a integrit y across m ultiple ta bles, and  lack of ad equate tra nsaction p erformance . The data bases, dat a files, a nd the dat abase or d ata file p rocesses s hould be t ested as a  subsystem  within th e applicat ion. 
  769   Documentat ion Testin g
  770   Documentat ion testin g is a typ e of testi ng that sh ould valid ate the in formation  contained  within the  software  documentat ion set fo r the foll owing qual ities: com pliance to  accepted  standards  and conven tions, acc uracy, com pleteness,  and usabi lity. The  documentat ion testin g should v erify that  all of th e required  informati on is prov ided in or der for th e appropri ate user t o be able  to properl y install,  implement , operate,  and maint ain the so ftware app lication.  The curren t VistA do cumentatio n set can  consist of  any of th e followin g manual t ypes:
  771   Release No tes, Insta llation Gu ide, User  Manuals, T echnical M anual, and  Security  Guide.
  772   Error Anal ysis Testi ng
  773   This type  of testing  verifies  that the a pplication  checks fo r input, d etects inv alid data,  and preve nts invali d data fro m being en tered into  the appli cation. Th is type of  testing a lso includ es the ver ification  of error l ogs and er ror messag es that ar e displaye d to the u ser.
  774   Explorator y Testing
  775   A techniqu e for test ing comput er softwar e that req uires mini mal planni ng and tol erates lim ited docum entation f or the tar get-of-tes t in advan ce of test  execution , relying  on the ski ll and kno wledge of  the tester  and feedb ack from t est result s to guide  the ongoi ng test ef fort. Expl oratory te sting is o ften condu cted in sh ort sessio ns in whic h feedback  gained fr om one ses sion is us ed to dyna mically pl an subsequ ent sessio ns.
  776   Failover T esting
  777   A type of  testing te st that en sures an a lternate o r backup s ystem prop erly “take s over” (i .e., a bac kup system  functions  when the  primary sy stem fails ). Failove r Testing  also tests  that a sy stem conti nually run s when the  failover  occurs, an d that the  failover  happens wi thout any  loss of da ta or tran sactions.  Failover T esting sho uld be com bined with  Recovery  Testing.
  778   Installati on Testing
  779   A type of  testing th at verifie s that the  applicati on or syst em install s as inten ded on dif ferent har dware and  software c onfigurati ons, and u nder diffe rent condi tions (e.g ., a new i nstallatio n, an upgr ade, and a  complete  or custom  installati on). Insta llation te sting may  also measu re the eas e with whi ch an appl ication or  system ca n be succe ssfully in stalled, t ypically m easured in  terms of  the averag e amount o f person-h ours requi red for a  trained op erator or  hardware e ngineer to  perform t he install ation. Par t of this  installati on test is  to perfor m an unins tall. As a  result of  this unin stall, the  system, a pplication  and datab ase should  return to  the state  prior to  the instal l.
  780   Integratio n Testing
  781   An increme ntal serie s of tests  of combin ations or  sub-assemb lies of se lected com ponents in  an overal l system.  Integratio n testing  is increme ntal in a  successive ly larger  and more c omplex com binations  of compone nts tested  in sequen ce, procee ding from  the unit l evel (0% i ntegration ) to event ually the  full syste m test (10 0% integra tion). 
  782   Load Testi ng
  783   A performa nce test t hat subjec ts the sys tem to var ying workl oads in or der to mea sure and e valuate th e performa nce behavi ors and ab ilities of  the syste m to conti nue to fun ction prop erly under  these dif ferent wor kloads. Lo ad testing  determine s and ensu res that t he system  functions  properly b eyond the  expected m aximum wor kload. Add itionally,  load test ing evalua tes the pe rformance  characteri stics (e.g ., respons e times, t ransaction  rates, an d other ti me-sensiti ve issues) .
  784   Migration  Testing
  785   A type of  testing th at follows  standard  VistA and  HealtheVet  (HeV)-Vis tA operati ng procedu res and lo ads the la test .jar  version on to a live  copy of Vi stA and He V-VistA. T he followi ng are exa mples of t he types o f tests th at can be  performed  as part of  migration  testing:
  786   Data conve rsion has  been compl eted
  787   Data table s are succ essfully c reated
  788   Parallel t est for co nfirmation  of data i ntegrity
  789   Review out put report , before a nd after m igration,  to confirm  data inte grity
  790   Run equiva lent proce ss, before  and after  migration
  791   Multi-Divi sional Tes ting
  792   A type of  testing th at ensures  that all  applicatio ns will op erate in a  multi-div ision or m ulti-site  environmen t recogniz ing that a n enterpri se perspec tive while  fully sup porting lo cal health  care deli very.
  793   Parallel T esting
  794   The same i nternal pr ocesses ar e run on t he existin g system a nd the new  system. T he existin g system i s consider ed the “go ld standar d”, unless  proven ot herwise. T he feedbac k (expecte d results,  defined t ime limits , data ext racts, etc .) from pr ocesses fr om the new  system ar e compared  to the ex isting sys tem. Paral lel testin g is perfo rmed befor e the new  system is  put into a  productio n environm ent.
  795   Performanc e Monitori ng Testing
  796   Performanc e profilin g assesses  how a sys tem is spe nding its  time and c onsuming r esources.  This type  of perform ance testi ng optimiz es the per formance o f a system  by measur ing how mu ch time an d resource s the syst em is spen ding in ea ch functio n. These t ests ident ify perfor mance limi tations in  the code  and specif y which se ctions of  the code w ould benef it most fr om optimiz ation work . The goal  of perfor mance prof iling is t o optimize  the featu re and app lication p erformance .
  797   Performanc e Testing
  798   Performanc e Testing  assesses h ow a syste m is spend ing its ti me and con suming res ources. Pe rformance  testing op timizes a  system by  measuring  how much t ime and re sources th e system i s spending  in each f unction. T hese tests  identify  performanc e limitati ons in the  code and  specify wh ich sectio ns of the  code would  benefit m ost from o ptimizatio n work. Pe rformance  testing ma y be furth er refined  by the us e of speci fic types  of perform ance tests , such as,  benchmark  test, loa d test, st ress test,  performan ce monitor ing test,  and conten tion test.  
  799   Performanc e – Benchm ark Testin g
  800   A type of  performanc e testing  that compa res the pe rformance  of new or  unknown fu nctionalit y to a kno wn referen ce standar d (e.g., e xisting so ftware or  measuremen ts). For e xample, be nchmark te sting may  compare th e performa nce of cur rent syste ms with th e performa nce of the  Linux/Ora cle system .
  801   Performanc e – Conten tion Testi ng
  802   A type of  performanc e testing  that execu tes tests  that cause  the appli cation to  fail with  regard to  actual or  simulated  concurrenc y. Content ion testin g identifi es failure s associat ed with lo cking, dea dlock, liv elock, sta rvation, r ace condit ions, prio rity inver sion, data  loss, los s of memor y, and lac k of threa d safety i n shared s oftware co mponents o r data.
  803   Performanc e – Endura nce Testin g
  804   Endurance  testing, a lso known  as Soak te sting, is  usually do ne to dete rmine if t he system  can sustai n the cont inuous exp ected load . During s oak tests,  memory ut ilization  is monitor ed to dete ct potenti al leaks.
  805   Performanc e – Load T esting
  806   A performa nce test t hat subjec ts the sys tem to var ying workl oads in or der to mea sure and e valuate th e performa nce behavi ors and ab ilities of  the syste m to conti nue to fun ction prop erly under  these dif ferent wor kloads. Lo ad testing  determine s and ensu res that t he system  functions  properly b eyond the  expected m aximum wor kload. Add itionally,  load test ing evalua tes the pe rformance  characteri stics (e.g ., respons e times, t ransaction  rates, an d other ti me-sensiti ve issues) .
  807   Performanc e - Profil ingTesting
  808   Performanc e profilin g assesses  how a sys tem is spe nding its  time and c onsuming r esources.  This type  of perform ance testi ng optimiz es the per formance o f a system  by measur ing how mu ch time an d resource s the syst em is spen ding in ea ch functio n. These t ests ident ify perfor mance limi tations in  the code  and specif y which se ctions of  the code w ould benef it most fr om optimiz ation work . The goal  of perfor mance prof iling is t o optimize  the featu re and app lication p erformance .
  809   Performanc e – Spike  Testing
  810   A performa nce test i n which an  applicati on is test ed with su dden incre ment and d ecrements  in the loa d.  The fo cus is on  system beh avior duri ng dramati c changes  in load.
  811   Privacy Te sting
  812   A type of  testing th at ensures  that (1)  veteran an d employee  data are  adequately  protected  and (2) s ystems and  applicati ons comply  with the  Privacy an d Security  Rule prov isions of  the Health  Insurance  Portabili ty and Acc ountabilit y Act (HIP AA).
  813   Product Co mponent Te sting
  814   Product Co mponent Te sting (aka  Unit Test ing) is th e internal  technical  and funct ional test ing of a m odule/comp onent of c ode. Produ ct Compone nt Testing  verifies  that the r equirement s defined  in the det ail design  specifica tion have  been succe ssfully ap plied to t he module/ component  under test .
  815   Recovery T esting
  816   A type of  testing th at causes  an applica tion or sy stem to fa il in a co ntrolled e nvironment . Recovery  processes  are invok ed while a n applicat ion or sys tem is mon itored. Re covery tes ting verif ies that a pplication  or system , and data  recovery  is achieve d. Recover y Testing  should be  combined w ith Failov er Testing .
  817   Regression  Test
  818   A type of  testing th at validat es existin g function ality stil l performs  as expect ed when ne w function ality is i ntroduced  into the s ystem unde r test. 
  819   Risk Based  Testing
  820   A type of  testing ba sed on a d efined lis t of proje ct risks.  It is desi gned to ex plore and/ or uncover  potential  system fa ilures by  using the  list of ri sks to sel ect and pr ioritize t esting.
  821   Section 50 8 Complian ce Testing
  822   A type of  test that  (1) ensure s that per sons with  disabiliti es have ac cess to an d are able  to intera ct with gr aphical us er interfa ces and (2 ) verifies  that the  applicatio n or syste m meets th e specifie d Section  508 Compli ance stand ards.
  823   Security T esting
  824   A type of  test that  validates  the securi ty require ments and  to ensure  readiness  for the in dependent  testing pe rformed by  the Secur ity Assess ment Team  as used by  the Asses sment and  Authorizat ion Proces s.
  825   Smoke Test
  826   A type of  testing th at ensures  that an a pplication  or system  is stable  enough to  enter tes ting in th e currentl y active t est phase.  It is usu ally a sub set of the  overall s et of test s, prefera bly automa ted, that  touches pa rts of the  system in  at least  a cursory  way. 
  827   Stress Tes ting
  828   A performa nce test i mplemented  and execu ted to und erstand ho w a system  fails due  to condit ions at th e boundary , or outsi de of, the  expected  tolerances . This fai lure typic ally invol ves low re sources or  competiti on for res ources. Lo w resource  condition s reveal h ow the tar get-of-tes t fails th at is not  apparent u nder norma l conditio ns. Other  defects mi ght result  from comp etition fo r shared r esources ( e.g., data base locks  or networ k bandwidt h), althou gh some of  these tes ts are usu ally addre ssed under  functiona l and load  testing.  Stress Tes ting verif ies the ac ceptabilit y of the s ystems per formance b ehavior wh en abnorma l or extre me conditi ons are en countered  (e.g., dim inished re sources or  extremely  high numb er of user s).
  829   System Tes ting
  830   System tes ting is th e testing  of all par ts of an i ntegrated  system, in cluding in terfaces t o external  systems.  Both funct ional and  structural  types of  testing ar e performe d to verif y that the  system pe rformance,  operation  and funct ionality a re sound.  End to end  testing w ith all in terfacing  systems is  the ultim ate versio n. 
  831   Usability  Testing
  832   Usability  testing id entifies p roblems in  the ease- of-use and  ease-of-l earning of  a product . Usabilit y tests ma y focus up on, and ar e not limi ted to: hu man factor s, aesthet ics, consi stency in  the user i nterface,  online and  context-s ensitive h elp, wizar ds and age nts, user  documentat ion. 
  833   User Funct ionality T est
  834   User Funct ionality T est (UAT)  is a type  of Accepta nce Test t hat involv es end-use rs testing  the funct ionality o f the appl ication us ing test d ata in a c ontrolled  test envir onment. 
  835   User Inter face Testi ng
  836   User-inter face (UI)  testing ex ercises th e user int erfaces to  ensure th at the int erfaces fo llow accep ted standa rds and me et require ments. Use r-interfac e testing  is often r eferred to  as GUI te sting. UI  testing pr ovides too ls and ser vices for  driving th e user int erface of  an applica tion from  a test.
  837    
  838  
  839  
  840   Template R evision Hi story
  841   Date
  842   Version
  843   Descriptio n
  844   Author
  845   November 2 015
  846   1.18
  847   Expanded S ection 4.3   to bette r describe  responsib ilities fo r 508 comp liance.
  848   Channing J onker
  849   October 20 15
  850   1.17
  851   Corrected  broken lin k to 508 U RL.
  852   Channing J onker
  853   June 2015
  854   1.16
  855   Updated me tadata to  show recor d retentio n informat ion and re quired by  PMAS, VHA  Release Ma nagement,  Enterprise  Operation s, and Vis tA Intake  Program  
  856   Process Ma nagement
  857   May 2015
  858   1.15
  859   Reordered  cover shee t to enhan ce SharePo int search  results
  860   Process Ma nagement
  861   March 2015
  862   1.14
  863   Miscellane ous update s includin g the addi tion of Pe rformance  testing.
  864   Channing J onker
  865   November 2 014
  866   1.13
  867   Updated to  latest Se ction 508  conformanc e guidelin es and rem ediated wi th Common  Look Offic e Tool
  868   Process Ma nagement
  869   August 201 4
  870   1.12
  871   Removed re quirements  for ESE A pproval Si gnature
  872   Process Ma nagement
  873   October 20 13
  874   1.11
  875   Converted  to Microso ft Office  2007-2010  format
  876   Process Ma nagement
  877   July 09, 2 012
  878   1.10 
  879   Added Syst em Design  Document t o Section  1.2 -Test  Objectives  as an exa mple
  880   Process Ma nagement
  881   January 03 , 2012
  882   1.9
  883   Updated Ap proval Sig natures fo r Master T est Plan i n Appendix  a
  884   Process Ma nagement
  885   October 13 , 2011
  886   1.8
  887   Replaced r eferences  to Test an d Certific ation with  Independe nt Test an d Evaluati on. Replac ed referen ces to Cer tification  and Accre ditation w ith Assess ment and A uthorizati on.
  888   Process Ma nagement
  889   October 4,  2011
  890   1.7
  891   Repaired l ink to Pri vacy Impac t Assessme nt
  892   Process Ma nagement
  893   August 23,  2011
  894   1.6
  895   Changed Op erational  Readiness  Testing (O RT) to Ope rational R eadiness R eview (ORR )
  896   Process Ma nagement
  897   April 12,  2011
  898   1.5
  899   Updated th e Signator y Authorit ies in App endix A in  light of  organizati onal chang es
  900   Process Ma nagement
  901   February 2 011
  902   1.4
  903   Removed Te sting Serv ice Testin g and Oper ational Re adiness Te sting; add ed Enterpr ise System  Engineeri ng Testing .
  904   Changed In itial Oper ating Capa bility Tes ting to In itial Oper ating Capa bility Eva luation
  905   Process Ma nagement
  906   January 20 11
  907   1.3
  908   Repaired b roken link  in sectio n 1.4
  909   Process Ma nagement S ervice
  910   August 201 0
  911   1.2
  912   Removed OE D from tem plate
  913   Process Ma nagement S ervice
  914   December 2 009
  915   1.1
  916   Removed “T his Page I ntentional ly Left Bl ank” pages .
  917   OED Proces s Manageme nt Service
  918   July 2009
  919   1.0
  920   Initial Pr oPath rele ase
  921   OED Proces s Manageme nt Service