Behöver vi verkligen analysera algoritmer med dagensoch morgondagens snabba datorer?
Om tiden för en algoritm växer som n2 kommer en 100 gånger såsnabb dator bara att hinna med 10 gånger så stort problem.
Om ett problem växer som 2n är n = 100 olösligt (21001030). En 100gånger så snabb dator gör att problemet ”bara” tar lika lång tidsom 1028 skulle gjort på den gamla datorn.
Kan man inte bara testa algoritmerna?Förvisso en mycket bra ide som man inte bör glömmabort. Den har några problem (och en del fördelar):
Man måste koda algoritmen (och göra det bra/rättvist)
Vilka indata ska vi använda? typiska/slumpmässiga/extrema
Med fel algoritm tar problemet för lång tid att testa
Det gäller att tänka på overhead om vi använder små dataset.