최적화 이론
최근 수정 시각:
|
최적화 이론(Optimization Theory) 혹은 수학적 최적화(Mathematical optimization)
역사는 상당히 오래되었다. 피에르 드 페르마까지 거슬러 올라가며 상당히 많은 수학자, 공학자들이 연구하였다. 기초적인 방정식의 해를 찾는 기초적인 수준으로 점진적으로 발전하다가 미국의 수학자 조지 댄치그에 의해 진전을 이루었다.
역사는 상당히 오래되었다. 피에르 드 페르마까지 거슬러 올라가며 상당히 많은 수학자, 공학자들이 연구하였다. 기초적인 방정식의 해를 찾는 기초적인 수준으로 점진적으로 발전하다가 미국의 수학자 조지 댄치그에 의해 진전을 이루었다.
- 조합 최적화 (Combinatorial Optimization): 주어진 항목들의 조합으로 해가 표현되는 최적화 문제. 계산 복잡도에서 'NP-어려움'이 나오는 비선형계획법 문제들은 최적해를 구하기 힘들다. 구할 수 있다 해도 비용이 많이 든다. 따라서 NP-어려움임을 증명하는 방법, NP-어려움일 경우 해의 품질을 포기하고 근사해를 구하는 기법들을 배우게 된다. 대표적으로 '외판원 순회 문제'가 있다.
- 메타 휴리스틱(meta heuristics): 최적해(optimal solution)을 보장하지는 않지만 준최적해(suboptimal solution)을 빠르게 찾는 알고리즘. 유전 알고리즘, 모방 알고리즘, 입자 군집 최적화(particle swarm optimization, PSO), 개미 집단(ant colony) 알고리즘, 타부 탐색(Tabu search), 담금질 기법(simulated annealing), 하모니 탐색(Harmonic search) 등이 있다.
- 함수 최적화(function optimization): 어떤 목적 함수(objective function)가 있을 때, 이 함수를 최대로 하거나 최소로 하는 변수 값을 찾는 최적화 문제. 수리계획법 문제들은 상당수 이쪽 범주에 들어간다.
- 선형 계획법(심플렉스 방법)
- 비선형 계획법 (1차원 최소화 방법, 비제약 최적화 기법, 제약 최적화 기법)
- 기하급수 계획법
- 정수 계획법
- 확률 계획법
- 경사하강법(Gradient Descent)
- Lipschitz continuity
- Subgradient Method
- 최적제어 및 최적기준 방법
- 최적의 정지(Optimal stopping)
- 다중 목적 최적화(파레토 최적화)
- 볼록(Convex)함수와 오목(Concave)함수
- KKT(Karush-Kuhn-Tucker) Condition
- Proximal Gradient and Accelration
- backtracking line search
- Newton's Method
- SCIP - 제약 조건 정수 프로그래밍 문제를 해결(오픈 소스)
[1] 파이썬 무료 라이브러리이다.
이 저작물은 CC BY-NC-SA 2.0 KR에 따라 이용할 수 있습니다. (단, 라이선스가 명시된 일부 문서 및 삽화 제외)
기여하신 문서의 저작권은 각 기여자에게 있으며, 각 기여자는 기여하신 부분의 저작권을 갖습니다.
나무위키는 백과사전이 아니며 검증되지 않았거나, 편향적이거나, 잘못된 서술이 있을 수 있습니다.
나무위키는 위키위키입니다. 여러분이 직접 문서를 고칠 수 있으며, 다른 사람의 의견을 원할 경우 직접 토론을 발제할 수 있습니다.