Software: SimX - Nadelantrieb - Probabilistik - Zielstellung

Aus OptiYummy
Zur Navigation springenZur Suche springen

Zielstellung


In der vorherigen Übungsetappe haben wir eine Nennwert-Optimierung ohne Berücksichtigung der unvermeidlichen Streuungen aller Systemgrößen durchgeführt. Dieses Nennwert-Optimum reizt zulässige Grenzwerte der Restriktionsgrößen meist aus, um ein "Maximum" an Funktionalität zu erreichen. Es ist deshalb zu befürchten, dass unsere bisherige optimale Lösung für den Prägeantrieb in der Praxis recht schnell versagt:

  • Infolge der Fertigungsstreuungen (z.B. Maßtoleranzen) sowie Streuungen der Material- und Umgebungseigenschaften ist es praktisch unmöglich, einen Nadelantrieb mit exakt den Werten zu realisieren, welche für die Nennwert-Optimierung benutzt wurden.
  • Außerdem ist das für die Nennwert-Optimierung verwendete Modell immer ungenau. Es sind nur statistische Aussagen über das Vertrauensintervall der Simulationsergebnisse möglich.

Es ist deshalb erforderlich, zumindest ein Gefühl dafür zu entwickeln, welchen Einfluss die Änderung eines Modellparameters auf das geforderte Verhalten besitzt. Im "klassischen" Sinne nutzt man dafür in der Simulation eine sehr einfache Form der Sensitivitätsanalyse:

  • Man ändert jeweils einen Modellparameter in den Grenzen seiner zu erwartenden Streubreite (Toleranz X).
  • Man beobachtet den Einfluss jeder Parameterstreuung Tn auf das Verhalten aller Ausgangsgrößen Ym (Restriktionen und Kriterien).
  • Für den aktuellen Betriebspunkt des Systems (z.B. Nennwert-Optimum) kann man daraus die partiellen Ableitungen δYm/δXn bilden.

Das klassische Verfahren, jeweils einen Parameter zu variieren, alle anderen konstant zu halten und dann den nächsten zu variieren, liefert zwar die volle gewünschte Information, führt aber bei einer größeren Anzahl von Parametern schnell zu einem ausufernden Aufwand:

  • Untersucht man z.B. nur die Grenzwerte jeweils einer Toleranzgröße, wobei alle anderen Toleranzgrößen auf dem Nennwert festgehalten werden, so handelt es sich um eine starke Vereinfachung:
    • Die Wirkung der Toleranzgrößen ist im Allgemeinen nichtlinear.
    • Es existieren Abhängigkeiten zwischen den Toleranzgrößen. D.h., die Wirkung einer Toleranzgröße auf die Restriktionsgrößen ist abhängig vom aktuellen Wert der anderen Toleranzgrößen.
  • Möchte man zur Erzielung einer höheren Genauigkeit k Parameter mit jeweils n Einstellungen untersuchen, ergibt sich eine Gesamtzahl von N=nk Modell-Läufen.
  • So sind z.B. bei n=k=10 insgesamt 10 Milliarden Modell-Läufe notwendig. Die Durchführung solcher Experimente ist wegen begrenzter Ressourcen nicht möglich!

Es ist erforderlich, den Untersuchungsaufwand zu begrenzen:

  • Ein Verfahren, das die Streuungen von Ein- und Ausgangsgrößen bei der numerischen Analyse technischer Systeme berücksichtigt, ist die Probabilistische Simulation. Darin wird die Sensitivitätsanalyse als umfassendste Analyseart der statistischen Versuchsplanung genutzt:
    • Aus den Verteilungen der Eingangsgrößen (Streuungen) müssen dabei die Verteilungen der Ausgangsgrößen (Restriktionen und Gütekriterien) berechnet werden.
    • Die Versuchsplanung hat zum Ziel, die gewünschten Informationen zum Systemverhalten
      • mit hoher statistischer Signifikanz und
      • in kurzer Zeit (d.h. mit wenigen Modell-Läufen)
zu ermitteln.







---> Hier geht es bald weiter!!!