Software: SimX - Nadelantrieb - Probabilistik - Zielstellung

Aus OptiYummy
Zur Navigation springenZur Suche springen

Zielstellung


In der vorherigen Übungsetappe haben wir eine Nennwert-Optimierung ohne Berücksichtigung der unvermeidlichen Streuungen aller Systemgrößen durchgeführt. Dieses Nennwert-Optimum reizt zulässige Grenzwerte der Restriktionsgrößen meist aus, um ein "Maximum" an Funktionalität zu erreichen. Es ist deshalb zu befürchten, dass unsere bisherige optimale Lösung für den Prägeantrieb in der Praxis recht schnell versagt:

  • Infolge der Fertigungsstreuungen (z.B. Maßtoleranzen) sowie Streuungen der Material- und Umgebungseigenschaften ist es praktisch unmöglich, einen Nadelantrieb mit exakt den Werten zu realisieren, welche für die Nennwert-Optimierung benutzt wurden.
  • Außerdem ist das für die Nennwert-Optimierung verwendete Modell immer ungenau. Es sind nur statistische Aussagen über das Vertrauensintervall der Simulationsergebnisse möglich.

Es ist deshalb erforderlich, zumindest ein Gefühl dafür zu entwickeln, welchen Einfluss die Änderung eines Modellparameters auf das geforderte Verhalten besitzt. Im "klassischen" Sinne nutzt man dafür in der Simulation eine sehr einfache Form der Sensitivitätsanalyse:

  • Man ändert jeweils einen Modellparameter in den Grenzen seiner zu erwartenden Streubreite (Toleranz X).
  • Man beobachtet den Einfluss jeder Parameterstreuung Tn auf das Verhalten aller Ausgangsgrößen Ym (Restriktionen und Kriterien).
  • Für den aktuellen Betriebspunkt des Systems (z.B. Nennwert-Optimum) kann man daraus die partiellen Ableitungen δYm/δXn bilden.

Das klassische Verfahren, jeweils einen Parameter zu variieren, alle anderen konstant zu halten und dann den nächsten zu variieren, liefert zwar die volle gewünschte Information, führt aber bei einer größeren Anzahl von Parametern schnell zu einem ausufernden Aufwand:

  • Untersucht man z.B. nur die Grenzwerte jeweils einer Toleranzgröße, wobei alle anderen Toleranzgrößen auf dem Nennwert festgehalten werden, so handelt es sich um eine starke Vereinfachung:
    • Die Wirkung der Toleranzgrößen ist im Allgemeinen nichtlinear.
    • Es existieren Abhängigkeiten zwischen den Toleranzgrößen. D.h., die Wirkung einer Toleranzgröße auf die Restriktionsgrößen ist abhängig vom aktuellen Wert der anderen Toleranzgrößen.
  • Möchte man zur Erzielung einer höheren Genauigkeit k Parameter mit jeweils n Einstellungen untersuchen, ergibt sich eine Gesamtzahl von N=nk Modell-Läufen.
  • So sind z.B. bei n=k=10 insgesamt 10 Milliarden Modell-Läufe notwendig. Die Durchführung solcher Experimente ist wegen begrenzter Ressourcen nicht möglich!


Die Probabilistische Simulation auf Basis der statistischen Versuchsplanung ermöglicht, den erforderlichen Berechnungsaufwand zu begrenzen. Dieses Verfahren soll deshalb im Folgenden für die Sensitivitätsanalyse benutzt werden.


Eine weitere Reduzierung des Berechnungsaufwandes erreichen wir, indem wir uns auf die relevanten Streuungsgrößen beschränken. Aus vorhergehenden Experimenten sind die für die Funktion des Gesamtsystems kritischen Komponenten bereits bekannt:


---> Hier geht es bald weiter!!!