14-03-2011, 06:03 PM
Jeg har siddet og tænkt over noget som jeg lige vil prøve at lufte her. Der findes en metode til at designe eksperimenter der hedder "Design of Experiments", DoE. Først vil jeg kort beskrive metoden, og derefter lidt om hvad jeg tænker den kan bruges til.
DoE er en metode til at teste for flere faktores indvirkning på een gang, og ikke mindst teste for sammenhængen mellem faktorene. Man starter med at vælge det antal faktorer man vil teste virkningen af på output'et. Derefter skal man vælge nogle min. og max. værdier af de forskellige faktorer. Hvis man visualiserer input'et vil det se ud som den vedhæftede figur, man udfører så de tests der svarer til hjørnepunkterne, på den måde kan man sige noget om "at hvis den faktor bevæger sig i den retning, så sker der nok det"
Billedet viser et forsøg med 3 faktorer
Men først skal vi jo lige have bestemt hvad vi vil teste for, man bruger tit denne metode i levetidstests, men i dette tilfælde vil et godt output jo være præcisionen. Og man kan, som nævnt før, se om der er en sammenhæng mellem disse faktorer. Fordelen ved denne metode er at den er meget mere tids effektiv end en "one at the time" test. Og man kunne forestille sig at den ene faktor, modarbejder den anden, altså at en optimering lavet på en faktor, har negative konsekvenser for en anden.
Man skal vælge sine faktorer med omhu, da antallet af tests stiger voldsomt hvis man kommer over 3-4 faktorer. Men man kunne jo vælge at kigge lidt på: ladningen, COL. (Jeg har ikke en dyt forstand på genladning, så jeg skyder lidt i blinde) Det vil så give 4 tests + plus en midter test.
Hvis nu vi sætter, ladning_min = 30, ladning_max = 35 & COL_min = 75, COL_max = 80
Så vil man skulle udføre 5 tests svarende til:
ladning_min + COL_min
ladning_min + COL_max
ladning_max + COL_min
ladning_max + COL_max
midtpunkt: ladning_max-min + COL_max-min
Så vil man i det virkelige liv skulle lave nogle repetitioner lad og sige 10, dvs. at man så skulle lave 50 patroner med de forskellige parametre, og derefter teste for for præcisionen. Et hvert hjørnepunkt er bestemt af gennemsnittet af output'et. Man ville så for hver test have en middel præcision(output), og på baggrund af det er det muligt at forudsige hvilken sammensætning af patron der giver det bedste resultat. Man bruger naturligvis nogle statestik programmer til at lave grafer og resultat behandling, men jeg har bare lige prøve at ridse grund ideen op.
Er der nogen der har prøvet at gøre dette, eller laver man hellere "one-factor-at-the-time" optimering.?
Giver det mening eller er det sort snak?
Hvis det har nogen interesse kan jeg godt give et større indblik i denne metode.
DoE er en metode til at teste for flere faktores indvirkning på een gang, og ikke mindst teste for sammenhængen mellem faktorene. Man starter med at vælge det antal faktorer man vil teste virkningen af på output'et. Derefter skal man vælge nogle min. og max. værdier af de forskellige faktorer. Hvis man visualiserer input'et vil det se ud som den vedhæftede figur, man udfører så de tests der svarer til hjørnepunkterne, på den måde kan man sige noget om "at hvis den faktor bevæger sig i den retning, så sker der nok det"
Billedet viser et forsøg med 3 faktorer
Men først skal vi jo lige have bestemt hvad vi vil teste for, man bruger tit denne metode i levetidstests, men i dette tilfælde vil et godt output jo være præcisionen. Og man kan, som nævnt før, se om der er en sammenhæng mellem disse faktorer. Fordelen ved denne metode er at den er meget mere tids effektiv end en "one at the time" test. Og man kunne forestille sig at den ene faktor, modarbejder den anden, altså at en optimering lavet på en faktor, har negative konsekvenser for en anden.
Man skal vælge sine faktorer med omhu, da antallet af tests stiger voldsomt hvis man kommer over 3-4 faktorer. Men man kunne jo vælge at kigge lidt på: ladningen, COL. (Jeg har ikke en dyt forstand på genladning, så jeg skyder lidt i blinde) Det vil så give 4 tests + plus en midter test.
Hvis nu vi sætter, ladning_min = 30, ladning_max = 35 & COL_min = 75, COL_max = 80
Så vil man skulle udføre 5 tests svarende til:
ladning_min + COL_min
ladning_min + COL_max
ladning_max + COL_min
ladning_max + COL_max
midtpunkt: ladning_max-min + COL_max-min
Så vil man i det virkelige liv skulle lave nogle repetitioner lad og sige 10, dvs. at man så skulle lave 50 patroner med de forskellige parametre, og derefter teste for for præcisionen. Et hvert hjørnepunkt er bestemt af gennemsnittet af output'et. Man ville så for hver test have en middel præcision(output), og på baggrund af det er det muligt at forudsige hvilken sammensætning af patron der giver det bedste resultat. Man bruger naturligvis nogle statestik programmer til at lave grafer og resultat behandling, men jeg har bare lige prøve at ridse grund ideen op.
Er der nogen der har prøvet at gøre dette, eller laver man hellere "one-factor-at-the-time" optimering.?
Giver det mening eller er det sort snak?
Hvis det har nogen interesse kan jeg godt give et større indblik i denne metode.