6. Ciclo di ottimizzazione DAKOTA-OpenFOAM | Ottimizzazione senza derivate

6. Ciclo di ottimizzazione DAKOTA-OpenFOAM | Ottimizzazione senza derivate54:51

Informazioni sul download e dettagli del video 6. Ciclo di ottimizzazione DAKOTA-OpenFOAM | Ottimizzazione senza derivate

Autore:

Wolf Dynamics World - WDW

Pubblicato il:

10/04/2025

Visualizzazioni:

155

Descrizione:

Il caso di ottimizzazione della forma del corpo smussato - Parte 4. In questo caso dimostrativo, utilizziamo i seguenti strumenti: generazione della geometria e della mesh con Salome, risolutore black box OpenFOAM 11, post-elaborazione automatica con scripting bash e Python, tracciamento con Python e strumento di ottimizzazione DAKOTA 6.19.0. 00:00 Introduzione - Preliminari 02:32 Scelta di un metodo di ottimizzazione. Linee guida generali e matrice decisionale. 04:40 Un libro eccellente sull'ottimizzazione di Vanderplaats 06:15 File di input di DAKOTA - Alcuni metodi senza derivate 07:30 Ottimizzazione globale efficiente EGO - Uno dei miei metodi preferiti in DAKOTA 12:05 Lanciamo uno studio di ottimizzazione usando il metodo EGO 15:25 Diamo un'occhiata al risultato del metodo EGO 18:15 Che bel caso di test 20:31 Metodo di ricerca adattiva della mesh MADS 23:15 Lanciamo uno studio di ottimizzazione usando il metodo MADS - Ho selezionato il metodo sbagliato 25:33 Lanciamo uno studio di ottimizzazione usando il metodo MADS - Il metodo giusto questa volta 26:53 Diamo un'occhiata al risultato del metodo MADS 31:35 File di input di DAKOTA - Alcuni metodi senza derivate 32:20 Algoritmo genetico a obiettivo singolo SOGA 34:11 Ottimizzazione fine dei parametri dei metodi 37:00 avviare uno studio di ottimizzazione usando il metodo SOGA 39:32 Diamo un'occhiata al risultato del metodo SOGA 41:39 Metodo SOGA - Dov'è la soluzione migliore? 44:30 Attenzione: non usare dati distorti per costruire meta-modelli. 46:31 Metodo SOGA - Quale iterazione corrisponde alla soluzione migliore? 48:58 Metodo di ricerca di pattern o asynch_pattern_search in DAKOTA 49:58 Lanciamo uno studio di ottimizzazione usando il metodo asynch_pattern_search 51:00 Diamo un'occhiata al risultato del metodo asynch_pattern_search 52:30 Osservazioni finali - Principali conclusioni