ingenieurkurse
online lernen

Besser lernen mit Online-Kursen

NEU! Jetzt online lernen:
Operations Research 2
Den Kurs kaufen für:
einmalig 39,00 €
Zur Kasse
Nichtlineare Optimierung > Nichtlineare Optimierung unter Nebenbedingungen > Methode der zulässigen Richtung:

Beispiel: Methode der zulässigen Richtungen (1. Iteration)

WebinarTerminankündigung:
 Am 20.12.2016 (ab 16:00 Uhr) findet unser nächstes Webinar statt.
Gratis-Webinar (Operations Research) Primaler Simplexalgorithmus
- Das 60-minütige Gratis-Webinar behandelt den primalen Simplexalgorithmus.
[weitere Informationen] [Terminübersicht]

Es folgt ein Anwendungsbeispiel zur Methode der zulässigen Richtungen für nichtlineare Optimierungsprobleme unter Berücksichtigung von Nebenbedingungen.

Gegeben sei das folgende nichtlineare Minimerungsproblem:

$f(x_1, x_2) = (x_1 - 2)^2 + (x_2 - 4)^2$    $\rightarrow$   min!

u.d.N.

$x_1 + x_2 \le 4$

$x_1 - x_2 \le 0$

$x_1 \le 1$

$x_1 \ge 0$

Zunächst wird das nichtlineare Minimierungsproblem in die im vorherigen Abschnitt angegebene Form umgeformt. Das bedeutet die Zielfunktion muss maximiert werden (Multiplikation mit $-1$) und die Nebenbedingungen müssen alle $\le$-Ungleichungen enthalten.

$f(x_1, x_2) = -(x_1 - 2)^2 - (x_2 - 4)^2$    $\rightarrow$   max!

u.d.N.

(1) $x_1 + x_2 \le 4$

(2) $x_1 - x_2 \le 0$

(3) $x_1 \le 1$

(4) $-x_1 \le 0$

1. Iteration

1. Auswahl eines bliebigen Knoten als Startlösung

Der Startknoten muss innerhalb des zulässigen Bereiches $K$ liegen:

Methode

Startwert: $x_1 = x_2 = 0$

Ob der Startwert im zulässigen Bereich liegt, kann überprüft werden, indem dieser in die Nebenbedingung eingesetzt wird. Werden die Werte der rechten Seite nicht überschritten (also keine Nebenbedingung verletzt), so liegt der Startwert im zulässigen Bereich.

2. Bestimmung der aktiven Indizes

Es wird nun in die Nebenbedingungen der Startwert eingesetzt und geprüft, ob beim Einsetzen des Startwertes die Ungleichung zu einer Gleichung führt. Dies ergibt sich für die Nebenbedingungen 2 und 4:

(2) $0 - 0 = 0$

(4) $-0 = 0$

Methode

$I(0,0) = \{2,4\}$

3. Bestimmung des Gradienten 

Es wird der Gradient der Zielfunktion $\frac{\partial f(x)}{\partial x}$ gebildet und die zulässige Lösung $x$ eingesetzt

$\frac{\partial f(x_1,x_2)}{\partial (x_1,x_2)} = (-2(x_1 - 2), -2(x_2 - 4)) $

Einsetzen von $(0,0)$:

$\frac{\partial f(x_1,x_2)}{\partial (x_1,x_2)} = (4, 8) $

4. Lösung des linearen Ersatzproblems

$\frac{\partial f(x)}{\partial x} \cdot s$   max!

u.d.N.

$a_i \cdot s \le 0$     $i \in I(x)$

$\frac{\partial f(x)}{\partial x} \cdot s \le 1$.

Für die Lösung des Ersatzproblems wird der Gradient als Zielfunktion verwendet und die Menge der aktiven Indizies als Nebenbedingungen, wobei die rechte Seite zur $0$ wird. Außerdem wird der Gradient der Zielfunktion zur $\le 1$-Nebenbedingung. Es müssen hier die Nebenbedingungen $2$ und $4$ betrachtet werden. Dafür wird $s_j := x_j$ gesetzt:


$4s_1 + 8s_2$  $\rightarrow$  max!

u.d.N.

$s_1 - s_2 \le 0$

$-s_1 \le 0$

$4s_1 + 8s_2 \le 1$

Das Problem kann zum Beispiel mittels Simplexalgorithmus gelöst werden. Die Variable $s_1$ weist bereits eine Nichtnegativitätsbedinung auf, wenn die 2. Nebenbedingung mit $-1$ multipliziert wird. Für die Variable $s_2$ hingegen ist keine Nichtnegativitätsbedingung gegeben. Das bedeutet hier muss substituiert werden:

$s_2 = s_2' - s_2''$ mit $s_2', s_2'' \ge 0$


Das zu lösende Problem ergibt sich dann wie folgt:

$4s_1 + 8s_2' - 8s_2''$  $\rightarrow$  max!

u.d.N.

$s_1 - s_2' + s_2'' \le 0$

$4s_1 + 8s_2' - 8s_2'' \le 1$

$s_1 \ge 0$

$s_2', s_2'' \ge 0$

Eintragen in das Tableau und lösen mittels primalen Simplex (da die rechte Seite nur positive Werte aufweist) ergibt dann:

methode der zulässigen Richtungen Simplex

$s_1 = 0$, $s_2' = 1/8$ und $s_2'' = 0$.

mit $s_2 = s_2' - s_2'' = 1/8$.

Methode

Die Lösung ist demnach $s = (0,1/8)$.

Diese Lösung ist in jedem Fall eine lokale beste Richtung, da sie im zulässigen Bereich des obigen Problems liegt. Setzt man nämlich $s = (0,1/8)$ in die Nebenbedingungen ein, so werden diese eingehalten. Es existiert eine Anstiegsrichtung, weil die Zielfunktion den Wert 1 annimmt.

5. Bestimmung der Schrittweite: Zulässiger Bereich

Es wird als nächstes bestimmt, wie weit man gehen kann ohne den zulässigen Bereich $K$ zu verlassen. Dies geschieht mit $\mu'$.

Methode

$\mu' = \min_{i \neq I(x), a_is > 0} \{ \frac{b_i - a_i x}{a_i \cdot s} \}$

Es müssen nun also die Nebenbedingungen des Ausgangsproblems betrachtet werden, die nicht Element von $I(x)$ sind. In diesem Fall also die Nebenbedingungen $1$ und $3$. Außerdem muss $a_i \cdot s > 0$ sein:

$\mu' = \min \{ \frac{b_1 - a_1 \cdot x}{a_1 \cdot s}; \frac{b_3 - a_3 \cdot x}{a_3 \cdot s} \}$

Da $a_3 \cdot s = (1,0) \cdot (0,1/8) = 0$ wird die 3. Nebenbedingung nicht mit berücksichtigt.


Einsetzen von $x = (0,0)$, $s=(0,1/8)$ sowie $a_1 = (1,1)$:

Methode

$\mu' = \min \{ \frac{4 - (1,1) \cdot (0,0)}{(1,1) \cdot (0,1/8)} \} = 32$

6. Bestimmung der Schrittweite: Zielfunktion

Es wird als nächstes die Schrittweite $\mu''$ bestimmt. Diese bestimmt wie weit man gehen kann, ohne die Zielfunktion zu verschlechtern. Hierfür wird $f(x)$ ersetzt durch $f(x + \mu'' \cdot s)$.

Es gilt $x(0,0) $. Das bedeutet $x_1 = x_2 = 0$. Außerdem ist bestimmt worden $s(0,1/8)$. Das bedeutet $s_1 = 0, s_2 = 1/8$.


Es wird demnach ersetzt:

$x_1 = 0 + \mu'' \cdot 0 = 0$ und

$x_2 = 0 + \mu'' \cdot 1/8 = 1/8 \mu''$.

$f(\mu'') = -(0 - 2)^2 - (1/8\mu'' - 4)^2$

Die Funktion wird nach $\mu$ abgeleitet (also das Maximum bestimmt):

$\frac{\partial f(\mu'')}{\partial \mu''} = - 2(1/8\mu'' - 4) \cdot 1/8 = 0$

Auflösen nach $ \mu''$:

Methode

$\mu'' = 32$

7. Wahl der Schrittweite

Es wird nun diejenige Schrittweite gewählt, die minimal ist:

$\mu = \min \{32, 32 \} = 32$

8. Berechnung der zulässigen Lösung

Die neue zulässige Lösung ist demnach:

$x = x + \mu \cdot s$

Methode

$x = (0,0) + 32 \cdot (0,1/8) = (0,4)$.


Die 2. Iteration erfolgt im kommenden Abschnitt.

Vorstellung des Online-Kurses Operations Research 2Operations Research 2
Dieser Inhalt ist Bestandteil des Online-Kurses

Operations Research 2

Ingenieurkurse (ingenieurkurse.de)
Diese Themen werden im Kurs behandelt:

[Bitte auf Kapitelüberschriften klicken, um Unterthemen anzuzeigen]

  • Operations Research 2: Überblick
    • Einleitung zu Operations Research 2: Überblick
  • Grundlagen des Operations Research 1
    • Einleitung zu Grundlagen des Operations Research 1
    • Definition: Lineares Programm
    • Standardform: Maximierungsproblem
      • Einleitung zu Standardform: Maximierungsproblem
      • Grafische Lösung des Maximierungsproblems
    • Primaler Simplexalgorithmus
      • Einleitung zu Primaler Simplexalgorithmus
      • Lösung des Maximierungsproblems mittels primalen Simplexalgorithmus
    • Dualer Simplexalgorithmus
    • Umformung in die Standardform
    • Umformung in die Normalform
  • Ganzzahlige Optimierung
    • Einleitung zu Ganzzahlige Optimierung
    • Grafisches Verfahren
    • Verfahren von Gomory
      • Einleitung zu Verfahren von Gomory
      • Beispiel: Verfahren von Gomory
    • Branch-and-Bound-Verfahren
      • Einleitung zu Branch-and-Bound-Verfahren
      • Branch-and-Bound: Maximierungsprobleme
        • Einleitung zu Branch-and-Bound: Maximierungsprobleme
        • Branch-and-Bound am Maximierungsproblem
          • Einleitung zu Branch-and-Bound am Maximierungsproblem
          • Festlegung der oberen/unteren Schranke, Prioritätenfestlegung
          • Entscheidungsbaum für das Maximierungsproblem
          • Beispiel: Branch and Bound am Maximierungsproblem
        • Branch-and-Bound am Maximierungsproblem (optimale Lösung)
          • Einleitung zu Branch-and-Bound am Maximierungsproblem (optimale Lösung)
          • Beispiel: Branch and Bound am Maximierungsproblem (optimale Lösung)
      • Branch-and-Bound: Minimierungsprobleme
        • Einleitung zu Branch-and-Bound: Minimierungsprobleme
        • Branch-and-Bound am Minimierungsproblem
          • Einleitung zu Branch-and-Bound am Minimierungsproblem
          • Festlegung der unteren/oberen Schranke, Prioritätenfestlegung
          • Entscheidungsbaum für das Minimierungsproblem
          • Beispiel: Branch and Bound am Minimierungsproblem
        • Branch-and-Bound am Minimierungsproblem (optimale Lösung)
          • Einleitung zu Branch-and-Bound am Minimierungsproblem (optimale Lösung)
          • Beispiel: Branch and Bound am Minimierungsproblem (optimale Lösung) 1
          • Beispiel: Branch and Bound am Minimierungsproblem (optimale Lösung) 2
          • Beispiel: Branch and Bound am Minimierungsproblem (optimale Lösung) 3
      • Branch-and-Bound: Knapsack-Problem
      • Branch-and-Bound: Knapsack-Problem (Alternative)
    • Verfahren der vorsichtigen Annäherung
  • Kombinatorische Optimierung
    • Einleitung zu Kombinatorische Optimierung
    • Traveling-Salesman-Problem
      • Einleitung zu Traveling-Salesman-Problem
      • Vollständige Enumeration
        • Einleitung zu Vollständige Enumeration
        • Beispiel: Vollständige Enumeration (Reduktion der Matrix)
        • Beispiel: Vollständige Enumeration (Anwendung des Verfahrens)
      • Heuristische Verfahren
        • Einleitung zu Heuristische Verfahren
        • Verfahren des besten Nachfolgers
          • Einleitung zu Verfahren des besten Nachfolgers
          • Verfahren des besten Nachfolgers (Ausgangsmatrix)
          • Verfahren des besten Nachfolgers (reduzierte Matrix)
        • Verfahren der sukzessiven Einbeziehung von Stationen
          • Einleitung zu Verfahren der sukzessiven Einbeziehung von Stationen
          • Einbeziehung von Stationen (Ausgangsmatrix)
      • Entscheidungsbaumverfahren
        • Einleitung zu Entscheidungsbaumverfahren
        • Begrenzte Enumeration
        • Branch-and-Bound Verfahren am Traveling-Salesman-Problem
          • Einleitung zu Branch-and-Bound Verfahren am Traveling-Salesman-Problem
          • Branch-and-Bound (TSP): 1. Iteration
          • Branch-and-Bound (TSP): Weitere Iterationen
    • Fertigungsablaufplanung
      • Einleitung zu Fertigungsablaufplanung
      • Flow-Shop-Probleme
      • Johnson-Algorithmus
  • Nichtlineare Optimierung
    • Grundlagen der nichtlinearen Optimierung
      • Einleitung zu Grundlagen der nichtlinearen Optimierung
      • Konkave und konvexe Funktionen
        • Einleitung zu Konkave und konvexe Funktionen
        • Beispiel: Nachweis konvexer/konkaver Funktionen auf direktem Weg
        • Beispiel: Nachweis konvexer/konkaver Funktionen über Differenzierbarkeit
    • Nichtlineare Optimierung unter Nebenbedingungen
      • Einleitung zu Nichtlineare Optimierung unter Nebenbedingungen
      • Methode der zulässigen Richtung
        • Einleitung zu Methode der zulässigen Richtung
        • Beispiel: Methode der zulässigen Richtungen (1. Iteration)
        • Beispiel: Methode der zulässigen Richtungen (2. Iteration)
        • Beispiel: Methode der zulässigen Richtungen (3. Iteration)
  • 61
  • 7
  • 25
  • 64
einmalig 39,00
umsatzsteuerbefreit gem. § 4 Nr. 21 a bb) UStG
Online-Kurs Top AngebotTrusted Shop

Unsere Nutzer sagen:

  • Phillipp Grünewald

    Phillipp Grünewald

    "ingenieurkurse.de hat mir besonders bei den Mathe-Themen geholfen. Super Erklärungen!"
  • Martina Pfeiffer

    Martina Pfeiffer

    "Klasse für den Einstieg ins Ingenieurstudium."
  • Marcel Eberhardt

    Marcel Eberhardt

    "Ich mache mir dank euch keine Sorgen für die Prüfungen. Danke!"

NEU! Sichere dir jetzt die perfekte Prüfungsvorbereitung und spare 10% bei deiner Kursbuchung!

10% Coupon: lernen10

Zu den Online-Kursen