Buscar
  • Ph.D Nelson Jose Diaz Gautier

Optimización en ingeniería

En su trabajo, el ingeniero siempre busca optimizar sus proyectos o actividades. Para ello, tiene que lidiar con variables como tiempo, dinero, rendimiento físico, etc. Este desafío presente en la industria tiene como objetivo optimizar productos o procesos con el fin de reducir los tiempos de desarrollo, mejorar la eficiencia y/o minimizar los costos de fabricación. Esta necesidad de optimización en ingeniería es evidente tanto en los proyectos preliminares de un nuevo producto como en la modificación del diseño de un producto ya existente. Esta tarea nunca es fácil, principalmente por la gran cantidad de opciones de las que dispone el diseñador.

El enfoque tradicionalmente adoptado en varios sectores de la industria emplea la metodología de ensayo y error. En esta metodología se eligen nuevas configuraciones basadas principalmente en la experiencia del diseñador. Sin embargo, a menudo no es simple elegir un nuevo proyecto, ya que en la realidad se trabaja con objetivos conflictantes, como por ejemplo reducir la masa y aumentar la durabilidad simultáneamente. Por lo tanto, normalmente se obtienen productos o procesos satisfactorios, pero no óptimos.

Hoy en día existen una gran variedad de algoritmos de optimización, como los basados ​​en el cálculo de las derivadas de la función objetivo, los basados en métodos heurísticos como Simplex, y aquellos basados en métodos evolutivos, como algoritmos genéticos. La elección de uno de estos métodos depende del tipo de variables del proyecto y del tiempo disponible para la optimización.

Los elementos básicos de un problema de optimización en ingeniería son: las variables, la función o las funciones objetivo y las restricciones. Las variables son los parámetros del proyecto que se pueden modificar libremente, por ejemplo, variables geométricas como espesor, ancho, radios de curvatura, etc.; variables de funcionamiento como velocidad de entrada, carga, temperatura, etc.; y otros como materiales, trayectorias, etc.

Las funciones objetivo son las que representan el modelo físico a resolver, en el que se minimizarán o maximizarán variables como eficiencia, costos, tensiones, pérdida de carga, fricción, intercambio de calor, etc. Estas funciones, que pueden ser una o mas, constituyen el motor del proceso de optimización. Finalmente, las restricciones son los requisitos que deben cumplir los nuevos proyectos que pueden ser requisitos derivados de normas, viabilidad o fabricación.

En problemas prácticos, generalmente no es posible tener una expresión simple del modelo, por lo que las variables de salida deben calcularse numéricamente, utilizando rutinas computacionales o programas específicos que simulen los fenómenos físicos del proyecto, u obtenidos experimentalmente. Estos modelos se denominan funciones de tipo black box (caja negra). Programas comerciales se utilizan para resolver ecuaciones complejas que definen el modelo físico y la obtención de resultados resulta computacionalmente costosa. Este costo computacional se incrementa cuando la solución deseada tiene que ser robusta o el problema de optimización es multidisciplinario.

En las últimas décadas, los avances en recursos computacionales han permitido a los científicos desarrollar modelos de simulación computacional de fenómenos físicos cada vez más complejos y con mayor fidelidad. Estos modelos generalmente se definen mediante un conjunto de procedimientos que tienen como objetivo resolver numéricamente las ecuaciones gobernantes o modelos empíricos o semi-empíricos. La complejidad del problema analizado, dentro de una “caja negra”, puede implicar discretizaciones complejas del dominio geométrico y funcional del espacio analizado debido a los parámetros internos del modelo, cuya resolución requiere la discretización geométrica del espacio analizado. El procedimiento básico es definir las variables de diseño que tienen una influencia significativa en el problema, como los datos de entrada en el modelo físico. En general, el uso de estos modelos conlleva un alto costo computacional, que se vuelve aún más relevante cuando las salidas se utilizan para resolver problemas de optimización, especialmente aquellos con múltiples objetivos (multi objetivo). En estas situaciones, los modelos son parte de la evaluación recurrente de una o más funciones objetivo y restricciones, cuyas descripciones analíticas y sus derivadas generalmente no están disponibles. Por lo tanto, se requieren métodos de solución que no necesiten del calculo de derivadas.

En este contexto, los modelos sustitutos, o metamodelos, a menudo se han utilizado como aproximaciones relativamente más rápidas a modelos computacionalmente costosos. Básicamente, el uso de metamodelos se produce de dos formas: la primera, basada en un conjunto de datos fijos, que contiene un número significativamente alto de puntos de evaluación del modelo computacionalmente costoso. Con esta base de datos preensamblada se construyen metamodelos que permanecen sin cambios durante todo el proceso de optimización. Por tanto, no hay forma de evaluar a priori si la base de datos es excesiva o insuficiente para lograr una optimización satisfactoria. En la segunda forma de empleo, el meta-modelado parte de una base de datos inicial, con el menor número posible de puntos de evaluación. Luego se lleva a cabo una búsqueda de mejores soluciones del metamodelo, a través de un proceso iterativo. En cada iteración, se construyen metamodelos provisionales para cada función objetivo y restricciones, que luego se aplican en la solución de un problema de optimización auxiliar para elegir los nuevos puntos que actualizarán la base de datos para la construcción de nuevos metamodelos provisionales en iteraciones sucesivas, hasta lograr la convergencia.

Otra alternativa más eficiente desde el punto de vista de la precisión de los resultados es el uso de métodos de fidelidad variable, donde son usados modelos de Alta fidelidad que generalmente representan el comportamiento del sistema analizado con una precisión aceptable para la aplicación pretendida, en combinación con modelos de baja fidelidad. Aquí los modelos de alta fidelidad suelen ser costosos desde el punto de vista computacional y sus múltiples evaluaciones dentro de sistemas complejos, como la difusión de incertidumbre, el análisis de sensibilidad o la optimización, requieren evaluaciones repetidas del modelo en diferentes ubicaciones del espacio de diseño. La solución de estos sistemas no suele ser viable en tiempo computacional. Sin embargo, los modelos de baja fidelidad son más baratos y menos precisos. Se obtienen, por ejemplo, reduciendo la dimensionalidad del problema, linealización, modelos físicos simplificados, discretización de dominios computacionales menos refinados, resultados parcialmente convergentes o el uso de los metamodelos. (Fig.1)

Figura 1. Diagrama de alta, media y baja fidelidad



#Otimización #DesarrolloProductos #IngenieríaInversa #Ingeniería

45 vistas0 comentarios

Entradas Recientes

Ver todo