Студопедия КАТЕГОРИИ: АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Задачи оптимизации проектных решений. Понятие целевой функции.
Оптимизацией параметров работы авто и его систем имеет важное значение в процессе проектирования. Степень соответствия расчетного параметра заданному определяется скалярный метод ошибки. Оптимальным считается такое значение проектируемого параметра, которое соответствует min целевой функции. Среди задач оптимизации выделяют задачи 2 классов: 1.Задачи безусловной оптимизации 2.Задачи условной оптимизации 1. Ф(Х*)=minФ(Х) Х* - оптимальное значение параметра 2. Ф(Х*)=min Ф(Х) А(X,Y)=0 B(X,Y)=0 При оптимизации параметров с использованием нескольких критериев появляется понятие частной целевой функции Фj(X) j=1,…m Ф(Х)= Во многих методах решение задач безусловной оптимизации используется понятие штрафов Ф(Х*)=minФ(Х)+Фштр(Х) Функция штрафов позволяет контролировать ограничения, которые возникают при применении расчетной функции.
Этапы работы программы метода конечных элементов. Фаза постпроцессорной обработки. Этапы работы программы конечных элементов: 3 Этапа 1.Препроц. Обработка 2.Анализ модели ( расч. На Пк в программе) 3.Оценка и анализ результатов. Препроц. Обработка
Геометр.парам характер. Нагрузок граничные условия свойства материала
вывод.перем. Вывод. Велич. Графич.вывод. вывод границ. Световая аним.проц. узлов. Нагрузок перемещ. Напряж. Диференц. Нагруж.
Регулярные методы минимализации функции (градиентные и сопряженных градиентов) Регулярные методы виды: -Прямые – при работе не исп. Произв. От целевых функций. -Сопряж.направл.-не исп. Произв. От цел.функций. -Градиентные-при работе исп.первые произв. По целев. Функции. -Квази-Ньютоновские -Быстросход.-исп. Более высокие 2-ые произв. От целев. Функции. Прямые методы -симплексные -Нелдера-Мида Ф(Х3)› Ф(Х2)› Ф(Х1) Ф(Х4)‹ Ф(Х3) Методы градиентные 1.Метод наискорейшего спуска. Формула метода. Xк+1=хк-λк*𝛛ɸ(хк)/𝛛к λк-скалярный коэффициент определяющий длину шага поиска вдоль напр. Напр.задается методом антиградиента. 𝛛ɸ/𝛛х1 ∆ɸ= 𝛛ɸ/𝛛хi 𝛛ɸ/𝛛хn Λк- нах. Путем минимизации функции Min ɸ(xk-λk*𝛛ɸ(xk)/𝛛xk) λe(0,∞) 2. Метод сопряженных градиентов. Идея состоит в поиске минимума функции ɸ(к) вдоль напр. Sk –опред.линией комб. Текущего напр.поиска и предыдущ. Напр. Поиска метод обл.сверхлинейной сходимостью. Ιxk+1-xcΙ‹ckΙxk-xk-1Ι Ck →0 k→∞ Общая формула метода Хк+1=kk+λkSk Вектор Sk опред. Черех произв. От функции ⱷк Sk=F(ɸ’(x0)….., ɸ’(xk))
Ньютоновские методы минимализации функции Метод Ньютона-это методы второго порядка. Xk+1= xk-{ɸ’’(xk)}-1 Метод Ньютона , имеет очень узкую область сходимости, если их оптим. лежит ближе к Х0. Недостатки метода Ньютона, частично устр. В модиф. Методе Ньютона. Xk+1=xk-λк{ɸ’’(xk)}-1ɸ’(xk) λк{ɸ’’(xk)}-1 -это обратная матрица Гессе λk=min{ɸ(xk-λk(ɸ’’(хк))-1ɸ’(xk)} В обратной матрице 2-ая производная не должна равняться -0. Квази-Ньютоновские методы. Xk+1 = xk-λкƞкφ'(xk)
|
||||
Последнее изменение этой страницы: 2018-04-12; просмотров: 408. stydopedya.ru не претендует на авторское право материалов, которые вылажены, но предоставляет бесплатный доступ к ним. В случае нарушения авторского права или персональных данных напишите сюда... |