Software: SimX - Nadelantrieb - Probabilistik - Zielstellung

Aus OptiYummy
Zur Navigation springenZur Suche springen

Zielstellung


In der vorherigen Übungsetappe haben wir eine Nennwert-Optimierung ohne Berücksichtigung der unvermeidlichen Streuungen aller Systemgrößen durchgeführt. Dieses Nennwert-Optimum reizt zulässige Grenzwerte der Restriktionsgrößen meist aus, um ein "Maximum" an Funktionalität zu erreichen. Es ist deshalb zu befürchten, dass unsere bisherige optimale Lösung für den Prägeantrieb in der Praxis recht schnell versagt:

  • Infolge der Fertigungsstreuungen (z.B. Maßtoleranzen) sowie Streuungen der Material- und Umgebungseigenschaften ist es praktisch unmöglich, einen Nadelantrieb mit exakt den Werten zu realisieren, welche für die Nennwert-Optimierung benutzt wurden.
  • Außerdem ist das für die Nennwert-Optimierung verwendete Modell immer ungenau. Es sind nur statistische Aussagen über das Vertrauensintervall der Simulationsergebnisse möglich.

Es ist deshalb erforderlich, zumindest ein Gefühl dafür zu entwickeln, welchen Einfluss die Änderung eines Modellparameters auf das geforderte Verhalten besitzt. Im "klassischen" Sinne nutzt man dafür in der Simulation eine sehr einfache Form der Sensitivitätsanalyse:

  • Man ändert jeweils einen Modellparameter in den Grenzen seiner zu erwartenden Streubreite (Toleranz X).
  • Man beobachtet den Einfluss jeder Parameterstreuung Tn auf das Verhalten aller Ausgangsgrößen Ym (Restriktionen und Kriterien).
  • Für den aktuellen Betriebspunkt des Systems (z.B. Nennwert-Optimum) kann man daraus die partiellen Ableitungen δYm/δXn bilden.

Das klassische Verfahren des vollständigen Versuchsplans, jeweils einen Parameter zu variieren, alle anderen konstant zu halten und dann den nächsten zu variieren, liefert zwar die volle gewünschte Information, führt aber bei einer größeren Anzahl von Parametern schnell zu einem ausufernden Aufwand:

  • Untersucht man z.B. nur die Grenzwerte jeweils einer Toleranzgröße, wobei alle anderen Toleranzgrößen auf dem Nennwert festgehalten werden, so handelt es sich um eine starke Vereinfachung:
    • Die Wirkung der Toleranzgrößen ist im Allgemeinen nichtlinear.
    • Es existieren Abhängigkeiten zwischen den Toleranzgrößen. D.h., die Wirkung einer Toleranzgröße auf die Restriktionsgrößen ist abhängig vom aktuellen Wert der anderen Toleranzgrößen.
  • Möchte man zur Erzielung einer höheren Genauigkeit k Parameter mit jeweils n Einstellungen untersuchen, ergibt sich eine Gesamtzahl von N=nk Modell-Läufen.
  • So sind z.B. bei n=k=10 insgesamt 10 Milliarden Modell-Läufe notwendig. Die Durchführung solcher Experimente ist wegen begrenzter Ressourcen nicht möglich!


Die probabilistische Simulation auf Basis der statistischen Versuchsplanung ermöglicht, den erforderlichen Berechnungsaufwand zu begrenzen. Dieses Verfahren soll deshalb im Folgenden für alle statistischen Analysen benutzt werden.


Eine weitere Reduzierung des Berechnungsaufwandes erreichen wir, indem wir uns auf die relevanten Streuungsgrößen beschränken. Aus vorhergehenden Experimenten sind die für die Funktion des Gesamtsystems kritischen Parameter bereits bekannt:

  1. Temperatur T der Spule (0°C bis 1xx°C) mit xx=01..99 (Teilnehmer-Nr.)
  2. Betriebspannung u (±10%)
  3. Schutzwiderstand RS (±5%)
  4. Federkonstante kF der Rückholfeder (±30%)
  5. Papiersteifheit kP (±50%)

Als Restriktionsgrößen beobachten wir:

  1. Prägung
  2. Zykluszeit
  3. Spulenstrom
  4. Spulenspannung

Es sind folgende Experimentier-Ziele zu verfolgen:

  1. Ausschuss-Quote ermitteln
  2. Korrelation zwischen Parameterstreuung und Restriktionsgrößen
  3. Sensitivitätsanalysen:
    1. Rangfolge der Streuungseinflüsse
    2. Aussagen zu den Modell-Eigenschaften

Das Simulationsmodell ist bei Bedarf um Toleranz-Aspekte zu erweitern. Für die Durchführung probabilistischer Simulationen muss ein Versuchsstand mit geeigneten Experimenten konfiguriert werden.

---> Hier geht es bald weiter!!!