3. EPMO Open Source Coordination Office Redaction File Detail Report

Produced by Araxis Merge on 6/14/2018 2:30:47 PM Eastern Daylight Time. See www.araxis.com for information about Merge. This report uses XHTML and CSS2, and is best viewed with a modern standards-compliant browser. For optimum results when printing this report, use landscape orientation and enable printing of background images and colours in your browser.

3.1 Files compared

# Location File Last Modified
1 EPIP_2.0_PSS_1.0_227.zip EPIP_Test_Evaluation_(PSS_1.0_227).docx Tue Jun 12 16:05:28 2018 UTC
2 EPIP_2.0_PSS_1.0_227.zip EPIP_Test_Evaluation_(PSS_1.0_227).docx Tue Jun 12 19:40:33 2018 UTC

3.2 Comparison summary

Description Between
Files 1 and 2
Text Blocks Lines
Unchanged 4 466
Changed 3 6
Inserted 0 0
Removed 0 0

3.3 Comparison options

Whitespace
Character case Differences in character case are significant
Line endings Differences in line endings (CR and LF characters) are ignored
CR/LF characters Not shown in the comparison detail

3.4 Active regular expressions

No regular expressions were active.

3.5 Comparison detail

  1   Existing P roduct Int ake Progra m (EPIP)
  2   Patch PSS* 1.0*227
  3   Test Evalu ation
  4  
  5  
  6  
  7   Department  of Vetera ns Affairs
  8   May 2018
  9   Version 1. 0
  10  
  11  
  12  
  13   Revision H istory
  14   Note: The  revision h istory cyc le begins  once chang es or enha ncements a re request ed after t he Communi cations Pl an has bee n baseline d.
  15   Date
  16   Version
  17   Descriptio n
  18   Author
  19   05/25/2018
  20   1.0
  21   Initial do cument.
  22   EPIP Proje ct Team
  23  
  24   Artifact R ationale
  25   The test e valuation  document i s the prim ary output  of the te st and eva luation pr ocess, an  integral p art of the  systems e ngineering  process,  which iden tifies lev els of per formance a nd assists  the devel oper in co rrecting d eficiencie s.
  26  
  27   Table of C ontents
  28   1.Test Eva luation In troduction 1
  29   1.1.Test E valuation  Scope1
  30   1.2.Test A rchitectur e1
  31   1.3.Test E nvironment /Configura tion1
  32   1.4.Instal lation Pro cess2
  33   2.Test Dat a2
  34   3.Issues2
  35   4.Test Exe cution Log 2
  36   5.Test Def ect Log3
  37   6.Test Res ults Summa ry3
  38   6.1.Defect  Severity  and Priori ty Levels3
  39   6.2.Total  Defects by  Severity  Level3
  40   6.3.Breakd own of Tes t Results3
  41   6.4.Perfor mance Test ing3
  42   7.Test Cov erage3
  43   7.1.Requir ements Cov ered3
  44   7.2.Sectio n 508 Comp liance Cov erage4
  45   8.Suggeste d Actions4
  46   9.Defect S everity an d Priority  Definitio ns4
  47   9.1.Defect  Severity  Level5
  48   9.1.1.Seve rity Level  1 – Criti cal5
  49   9.1.2.Seve rity Level  2 - High5
  50   9.1.3.Seve rity Level  3 - Mediu m5
  51   9.1.4.Seve rity Level  4 - Low6
  52   9.2.Priori ty Classif ications6
  53   9.2.1.Prio rity 1 - R esolve Imm ediately6
  54   9.2.2.Prio rity 2 - G ive High A ttention6
  55   9.2.3.Prio rity 3 - N ormal Queu e6
  56   9.2.4.Prio rity 4 - L ow Priorit y6
  57   10.Optiona l Tables,  Charts, an d Graphs6
  58   11.Documen t Approval  Signature s7
  59   Appendix A  - Test Ex ecution Lo g8
  60   Appendix B  – Defect  Log9
  61  
  62   Test Evalu ation Intr oduction
  63   The purpos e of this  Test Evalu ation is t o:
  64   Identify t he testing  approach  used.
  65   Present a  summary an alysis of  the key te st results  from the  remediatio n of this  intake for  review an d assessme nt by desi gnated sta keholders.
  66   Provide a  general st atement of  the quali ty of the  system und er test.
  67   Make recom mendations  for futur e testing  efforts.
  68   Test Evalu ation Scop e
  69   The scope  of this Te st Evaluat ion is to  verify the  functiona lity of th e Patch PS S*1.0*227  code modif ication, a s determin ed by Func tional, Co mponent In tegration/ System, an d Regressi on testing . Testing  activities  followed  the specif ications o utlined in  the follo wing Maste r Test Pla n: PSS*1.0 *227 Maste r Test Pla n (include d in Appen dix A).
  70   Test Archi tecture
  71   Following  are the EP IP test ac counts use d by the L eidos Deve lopment an d SQA Test ing teams  to test PS S*1.0*227.
  72   Developmen t Test Acc ounts 
  73   (For Unit  Testing)
  74   SQA Test A ccounts 
  75   (For Funct ional, Reg ression, a nd Compone nt Integra tion and S ystem Test ing)
  76   VistAS1 (  alternate  name: D1S1 )
  77   VistAG1 (a lternate n ame: D1G1)  
  78   VistAS2 (a lternate n ame: D1S2)  –for CPRS  GUI testi ng only
  79   VistAG2 (a lternate n ame: D1G2)  –for CPRS  GUI testi ng only
  80   Test Envir onment/Con figuration
  81   The EPIP t est accoun ts are mai ntained by  the EPIP  System Adm inistrator , who inst alls all V A-released  patches a s soon as  they are n ationally  released.  All EPIP t est accoun ts are clo ned from e xisting VA  Enterpris e Testing  Services ( ETS) test  accounts.  The Comput erized Pat ient Recor d System ( CPRS) Grap hical User  Interface  (GUI) exe cutable is  configure d for each  VistA ins tance util izing a un ique Inter net Protoc ol (IP) ad dress to c onnect to  the VistA  applicatio ns. Any up dates to t he CPRS GU I executab le are han dled by th e EPIP Sys tem Admini strator.
  82   All EPIP T est Engine ers and De velopers w ho have th e proper c redentials  can acces s the test  accounts.  The VA Au stin Infor mation Tec hnology Ce nter (AITC ) support  team reset s password s and sets  up new ac cess crede ntials on  an as-need ed basis.
  83   Installati on Process
  84   As soon as  the remed iation pro cess is co mplete and  the patch  is availa ble for te sting, a K IDS build  is created  in the De velopment  account an d then sen t to FORUM  for final  packaging . The patc h is then  submitted  to the VA  SQA Lead’s  Mailman a ccount for  installat ion. 
  85   An EPIP De veloper or  Test Engi neer utili zes the KI DS Install ation proc ess to ext ract the b uild from  the patch  and instal l the buil d into a t est accoun t. The ind ividual wh o installs  the patch  verifies  the routin e checksum s and also  checks fo r errors d uring the  installati on process . If the p atch is su ccessfully  installed  without a ny errors,  then the  EPIP Test  team proce eds with F unctional,  Regressio n, and Com ponent Int egration a nd System  testing. I f defects  are found,  then the  Developmen t team wor ks to find  a resolut ion and cr eates new  versions o f the patc h until al l defects  are resolv ed.
  86   Test Data
  87   The SQA Te sting team  utilizes  the test d ata in the  designate d test acc ounts (D1G 1, D1G2).
  88   The test d ata is enc rypted fol lowing the  standards  set forth  by the VA  Office of  Informati on & Techn ology (OIT ). All Per sonally Id entifiable  Informati on (PII) a nd Protect ed Health  Informatio n (PHI) is  scrubbed  and is not  available  to the Te st Enginee rs.
  89   All testin g is execu ted using  encrypted  test patie nts availa ble from a ny of the  EPIP test  accounts.  Examples o f encrypte d test pat ients:
  90   AAAHURMMX,  XPHY
  91   BADHB, HAA DXS
  92   FDHUX, YHI  J
  93   All tests  were execu ted manual ly by EPIP  Test Engi neers.
  94   Issues
  95   No issues  were encou ntered dur ing testin g of PSS*1 .0*227.
  96   Title
  97   Issue Desc ription
  98   Type
  99   Severity
  100   N/A
  101   N/A
  102   N/A
  103   N/A
  104   Test Execu tion Log
  105   The Test E xecution L og records  the execu tion of te st scripts  and docum ents the t est result s for each  test scri pt. 
  106   The SQA Te sting team  utilizes  the Ration al Quality  Manager ( RQM) tool  for all te sting acti vities. Al l test doc uments are  stored in  the EPIP  repository , includin g the Mast er Test Pl an, Test S uites, Tes t Cases, a nd Test Sc ripts. Tes t executio n is perfo rmed, and  test resul ts recorde d, in RQM.  The Test  Engineer a dds the te st results  to the Te st Executi on records  to indica te whether  testing a chieved Pa ss or Fail  status.
  107   The Test E xecution r ecords for  PSS*1.0*2 27 are inc luded in t he EPIP Pa tch PSS*1. 0*227 Mast er Test Pl an. The Ma ster Test  Plan is av ailable in  Appendix  A. 
  108   Test Defec t Log
  109   The Test D efect Log  is a tool  for record ing, analy zing, trac king, and  documentin g the clos ure of def ects. It s pecifies t he screen,  field, be havior or  result tha t occurred , and the  IEEE-defin ed Severit y Level. I t includes  enough in formation  for the de veloper to  find and  re-create  the defect . The Defe ct Log is  available  in Appendi x B.
  110   Test Resul ts Summary
  111   SQA testin g for Test  version 1  started i n the Dev1  Gold1 tes t environm ent on May  23, 2018  after Unit  testing i n Dev1 Sil ver1 was c ompleted.  Upon compl etion of I ntegration  testing ( Component  Integratio n and Syst em Testing , Function al Testing , and Regr ession Tes ting) on M ay 24, 201 8, zero (0 ) defects  were found  and repor ted. 
  112   Defect Sev erity and  Priority L evels
  113   A defect i s defined  as a flaw  in a compo nent or sy stem that  can cause  the compon ent or sys tem to fai l to perfo rm its req uired func tion, e.g. , an incor rect state ment or da ta definit ion. A def ect, if en countered  during exe cution, ma y cause a  failure of  the compo nent or sy stem. 
  114   Defects ar e categori zed accord ing to sev erity and  priority l evels. The  test anal yst assign s the seve rity, whil e the deve lopment ma nager assi gns the pr iority for  repair. F or more in formation,  see Defec t Severity  and Prior ity Defini tion in th is Test Ev aluation.
  115   Total Defe cts by Sev erity Leve l
  116   The Defect  Log in Ap pendix B d isplays th e defects  encountere d while te sting this  patch, an d the seve rity level  of each.
  117   Breakdown  of Test Re sults
  118   Testing wa s complete d on May 2 4, 2018. A ll test re sults were  recorded  in RQM. De tailed res ults are a vailable i n the EPIP  Patch PSS *1.0*227 M aster Test  Plan (see  Appendix  A).
  119   Performanc e Testing
  120   Performanc e testing  was not co nducted.
  121   Test Cover age
  122   The EPIP P atch PSS*1 .0*227 Mas ter Test P lan contai ns details  on test c overage (s ee Appendi x A).
  123   Requiremen ts Covered
  124   The requir ements for  PSS*1.0*2 27 are sto red in the  Rational  Dynamic Ob ject Orien ted Requir ements Sys tem (DOORS ). The tes t cases us ed to vali date that  the requir ements hav e been add ressed are  stored in  RQM and a re linked  to the req uirements,  providing  full trac eability.  The user s tories sto red in the  Rational  Change and  Configura tion Manag ement (CCM ) applicat ion (a.k.a . Rational  Team Conc ert (RTC))  are linke d to the r equirement s and test  cases. 
  125   The follow ing links  provide ac cess to th e various  EPIP repos itories in  the Ratio nal toolki t.
  126   EPIP (RM)  – Go to Ar tifacts, t hen Browse  Artifacts , and then  search fo r the desi red patch  number. Th e patch fo lder conta ins the re quirements  for that  patch.
  127   https:// DNS . URL /rm/web#ac tion=com.i bm.rdm.web .pages.sho wFoundatio nProjectDa shboard&co mponentURI =https:// DNS . URL /rm/rm-pro jects/_ZZe Mgl7AEeSE8 -zV-rLMog/ components /_1iq1INKD EeWADNdRzg PDKQ
  128   EPIP (QM)  – Go to Pl anning, th en Browse  Test Plans , and then  search fo r the desi red Master  Test Plan . The Mast er Test Pl an and tes t cases ar e linked t o requirem ents.
  129   https:// DNS . URL /qm/web/co nsole/EPIP %20(QM)#ac tion=com.i bm.rqm.pla nning.home .actionDis patcher&su bAction=vi ewUserHome
  130   EPIP (CM)  – Go to Pl ans, then  All Plans,  and then  search for  the desir ed sprint  Plan. The  user stori es in each  Plan are  linked to  requiremen ts and tes t cases.
  131   https:// DNS . URL /ccm/web/p rojects/EP IP%20(CM)# action=com .ibm.team. dashboard. viewDashbo ard
  132   Section 50 8 Complian ce Coverag e
  133   Section 50 8 test res ults will  be reporte d to VA in  the follo wing docum ents:
  134   EPIP_VASec tion508_Co mpliance_T est_Result s_(PSS*1.0 *227)
  135   EPIP_VASec tion508_In take_Docum ent_(PSS*1 .0*227)
  136   EPIP_VASec tion508_Ve rifiable_O bjective_E vidence_(P SS*1.0*227 )
  137   Suggested  Actions
  138   Leidos rec ommends mo ving this  patch to I OC testing .
  139   Defect Sev erity and  Priority D efinitions
  140   The classi fication o f defects  within a s ystem exam ines both  the severi ty and pri ority of t he defect.  
  141   Severity i s a measur e of how g reat the i mpact is o n the user ’s ability  to comple te the doc umented ac tions with in the sys tem. 
  142   Priority d etermines  the speed  with which  a given d efect must  be repair ed. 
  143   Defect cla ssificatio n may be d etermined  either bec ause testi ng is dela yed by a f ailure in  the system  or becaus e a cumber some worka round prev ents a use r from com pleting th e assigned  tasks. Bo th severit y and prio rity measu res must b e recorded  when sche duling def ect resolu tion tasks .
  144   Defect Sev erity Leve l
  145   The follow ing subsec tions iden tify the d efect seve rity level s.
  146   Severity L evel 1 – C ritical
  147   Institute  of Electri cal and El ectronics  Engineers  (IEEE) def inition: T he defect  results in  the failu re of the  complete s oftware sy stem, of a  subsystem , or of a  software u nit (progr am or modu le) within  the syste m.
  148   Any defect  that comp romises pa tient safe ty or syst em securit y. Example s of syste m security  defects i nclude bre ach of con fidentiali ty require ments of t he Privacy  Act, the  Health Ins urance Por tability a nd Account ability Ac t (HIPAA),  or Federa l Tax Info rmation gu idelines.
  149   Loss of sy stem funct ionality c ritical to  user oper ations wit h no suita ble workar ound, i.e. , there is  no way to  achieve t he expecte d results  using the  applicatio n.
  150   System cra sh or hang  that prev ents furth er testing  or operat ion of the  complete  applicatio n or a sec tion of th e applicat ion.
  151   Any defect  that caus es corrupt ion of dat a from a r esult of t he system  (as oppose d to user  error).
  152   Any defect  in which  inappropri ate transm issions ar e consiste ntly gener ated or ap propriate  transmissi ons of HL7  messages  fail to be  generated .
  153   Loss of fu nctionalit y resultin g in erron eous eligi bility/enr ollment de terminatio ns or comm unications  not being  sent.
  154   Severity L evel 2 - H igh 
  155   IEEE defin ition: The  defect re sults in t he failure  of the co mplete sof tware syst em, of a s ubsystem,  or of a so ftware uni t (program  or module ) within t he system.  There is  no way to  make the f ailed comp onent(s) f unction. H owever, th ere are ac ceptable p rocessing  alternativ es which w ill yield  the desire d result.
  156   A major de fect in th e function ality that  does not  result in  corruption  of data.
  157   A major de fect in th e function ality resu lting in a  failure o f all or p art of the  applicati on, where:  
  158   The expect ed results  can tempo rarily be  achieved b y alternat e means. T he custome r indicate s the work  around is  acceptabl e for the  short term .
  159   Any defect  that does  not confo rm to Sect ion 508 st andards.
  160   Any defect  that resu lts in ina ccurate or  missing r equirement s.
  161   Any defect  that resu lts in inv alid authe ntication  or authent ication of  an invali d end user .
  162   Severity L evel 3 - M edium 
  163   IEEE defin ition: The  defect do es not res ult in a f ailure, bu t causes t he system  to produce  incorrect , incomple te, or inc onsistent  results, o r the defe ct impairs  the syste ms usabili ty.
  164   Minor func tionality  is not wor king as in tended and  a workaro und exists  but is no t suitable  for long  term use
  165   The inabil ity of a v alid user  to access  the system  consisten t with gra nted privi leges
  166   Typographi cal or gra mmatical e rrors in t he applica tion, incl uding inst allation g uides, use r guides,  training m anuals, an d design d ocuments
  167   Any defect  producing  cryptic,  incorrect,  or inappr opriate er ror messag es
  168   Any defect  that resu lts from t he use of  non-standa rd data te rminology  in the app lication o r document ation, as  defined by  the Depar tment of V eterans Af fairs 
  169   Cosmetic i ssues that  are impor tant to th e integrit y of the p roduct, bu t do not r esult in d ata entry  and or dat a quality  problems.
  170   Severity L evel 4 - L ow 
  171   IEEE defin ition: The  defect do es not cau se a failu re, does n ot impair  usability,  and the d esired pro cessing re sults are  easily obt ained by w orking aro und the de fect.
  172   Minor loss  of, or de fect in th e function ality wher e a long t erm use ex ists
  173   Low-level  cosmetic i ssues.
  174   Priority C lassificat ions
  175   The follow ing subsec tions iden tify the a ppropriate  actions f or defects  at each p riority le vel, per d efinitions  of IEEE.
  176   Priority 1  - Resolve  Immediate ly
  177   Further de velopment  and/or tes ting canno t occur un til the de fect has b een repair ed. The sy stem canno t be used  until the  repair has  been affe cted.
  178   Priority 2  - Give Hi gh Attenti on
  179   The defect  must be r esolved as  soon as p ossible be cause it i s impairin g developm ent and/or  testing a ctivities.  System us e will be  severely a ffected un til the de fect is fi xed. 
  180   Priority 3  - Normal  Queue
  181   The defect  should be  resolved  in the nor mal course  of develo pment acti vities. It  can wait  until a ne w build or  version i s created.  
  182   Priority 4  - Low Pri ority
  183   The defect  is an irr itant that  should be  repaired,  but can b e repaired  after mor e serious  defects ha ve been fi xed. 
  184   Optional T ables, Cha rts, and G raphs
  185   None.
  186   Document A pproval Si gnatures
  187  
  188   Signed: __ __________ __________ __________ __________ __________ __________ _________ 
  189   Program/Pr oject Mana gerDate
  190  
  191   Signed: __ __________ __________ __________ __________ __________ __________ _________ 
  192   Business S ponsor Rep resentativ eDate
  193  
  194   Signed: __ __________ __________ __________ __________ __________ __________ _________ 
  195   Test LeadD ate
  196  
  197   Appendix A  - Test Ex ecution Lo g
  198   The Test E xecution R ecords for  PSS*1.0*2 27 are inc luded in t he EPIP Pa tch PSS*1. 0*227 Mast er Test Pl an.
  199  
  200  
  201   Appendix B  – Defect  Log
  202   No defects  were foun d during t esting of  patch PSS* 1.0*227.
  203   This patch  was devel oped to ad dress data  dictionar y errors r esulting f rom patch  PSS*1.0*20 3. The err ors resolv ed by patc h PSS*1.0* 227 are de scribed be low. The I OC defect  number is  740089.
  204   AUDIT^DICR  ^DD(50,30 ,0). This  error was  caused by  an extra c ross-refer ence in th e PRICE PE R ORDER UN IT field ( #13) in th e DRUG fil e (#50). T his is res olved in p atch PSS*1 .0*227 by  deleting t he extra c ross-refer ence.
  205   MESSAGE+2^ PSSDEE1 ^P SDRUG(6398 ,3) and CO MPAR+10^PS SDEEA ^UTI LITY("PSSD EE",5257,6 398,3). Th ese errors  were caus ed by dupl icate sub- file numbe rs in PSS* 1*203 and  PPSN patch  PSN*4*513 . They are  resolved  in patch P SS*1.0*227  by changi ng the def inition of  the multi ple sub-fi le used to  store Dru g Price ch ange histo ries. The  new sub-fi le number  will be 50 .095 inste ad of 50.0 3.
  206  
  207   Defect ID
  208   Affected S creen
  209   Affected F ield
  210   Observed B ehavior
  211   Severity
  212   Descriptio n
  213   N/A
  214   N/A
  215   N/A
  216   N/A
  217   N/A
  218   No defects  were foun d during U nit Testin g of versi on 1.0. 
  219   N/A
  220   N/A
  221   N/A
  222   N/A
  223   N/A
  224   No defects  were foun d during C omponent I ntegration /System Te sting of v ersion 1.0 .
  225   N/A
  226   N/A
  227   N/A
  228   N/A
  229   N/A
  230   No defects  were foun d during R egression  Testing of  version 1 .0.
  231   N/A
  232   N/A
  233   N/A
  234   N/A
  235   N/A
  236   No defects  were foun d during F unctional  Testing of  version 1 .0.