Posted on Categories:Convex optimization, 凸优化, 数学代写

数学代写|凸优化代写Convex Optimization代考|Gradient Projection Method

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP-hard。

凸优化Convex optimization是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类别的凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP困难的。凸优化在许多学科中都有应用,如自动控制系统、估计和信号处理、通信和网络、电子电路设计、数据分析和建模、金融、统计(最佳实验设计)、和结构优化,其中近似概念被证明是有效的。

凸优化Convex optimization代写,免费提交作业要求, 满意后付款,成绩80\%以下全额退款,安全省心无顾虑。专业硕 博写手团队,所有订单可靠准时,保证 100% 原创。 最高质量的凸优化Convex optimization作业代写,服务覆盖北美、欧洲、澳洲等 国家。 在代写价格方面,考虑到同学们的经济条件,在保障代写质量的前提下,我们为客户提供最合理的价格。 由于作业种类很多,同时其中的大部分作业在字数上都没有具体要求,因此凸优化Convex optimization作业代写的价格不固定。通常在专家查看完作业要求之后会给出报价。作业难度和截止日期对价格也有很大的影响。

avatest™帮您通过考试

avatest™的各个学科专家已帮了学生顺利通过达上千场考试。我们保证您快速准时完成各时长和类型的考试,包括in class、take home、online、proctor。写手整理各样的资源来或按照您学校的资料教您,创造模拟试题,提供所有的问题例子,以保证您在真实考试中取得的通过率是85%以上。如果您有即将到来的每周、季考、期中或期末考试,我们都能帮助您!

在不断发展的过程中,avatest™如今已经成长为论文代写,留学生作业代写服务行业的翘楚和国际领先的教育集团。全体成员以诚信为圆心,以专业为半径,以贴心的服务时刻陪伴着您, 用专业的力量帮助国外学子取得学业上的成功。

•最快12小时交付 

•200+ 英语母语导师 

•70分以下全额退款

想知道您作业确定的价格吗? 免费下单以相关学科的专家能了解具体的要求之后在1-3个小时就提出价格。专家的 报价比上列的价格能便宜好几倍。

我们在数学Mathematics代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在凸优化Convex optimization代写方面经验极为丰富,各种凸优化Convex optimization相关的作业也就用不着 说。

数学代写|凸优化代写Convex Optimization代考|Gradient Projection Method

数学代写|凸优化代写Convex Optimization代考|Gradient Projection Method

Another major feasible direction method, which generally achieves a faster convergence rate than the conditional gradient method, is the gradient projection method (originally proposed in [Gol64], [LeP65]), which has the form
$$
x_{k+1}=P_X\left(x_k-\alpha_k \nabla f\left(x_k\right)\right),
$$
where $\alpha_k>0$ is a stepsize and $P_X(\cdot)$ denotes projection on $X$ (the projection is well defined since $X$ is closed and convex; see Fig. 2.1.6).

To get a sense of the validity of the method, note that from the Projection Theorem (Prop. 1.1.9 in Appendix B), we have
$$
\nabla f\left(x_k\right)^{\prime}\left(x_{k+1}-x_k\right) \leq 0,
$$
and by the optimality condition for convex functions (cf. Prop. 1,1.8 in Appendix B), the inequality is strict unless $x_k$ is optimal. Thus $x_{k+1}-x_k$ defines a feasible descent direction at $x_k$, and based on this fact, we can show the descent property $f\left(x_{k+1}\right)<f\left(x_k\right)$ when $\alpha_k$ is sufficiently small.
The stepsize $\alpha_k$ is chosen similar to the unconstrained gradient method, i.e., constant, diminishing, or through some kind of reduction rule to ensure cost function descent and guarantee convergence to the optimum; see the convergence analysis of Section 6.1, and [Ber99], Section 2.3, for a detailed discussion and references. Moreover the convergence rate estimates given earlier for unconstrained steepest descent in the positive definite quadratic cost case [cf. Eq. (2.8)] and in the singular case [cf. Eqs. (2.9) and (2.10)] generalize to the gradient projection method under various stepsize rules (see Exercise 2.1 for the former case and [Dun81] for the latter case).

数学代写|凸优化代写Convex Optimization代考|Two-Metric Projection Methods

Despite its simplicity, the gradient projection method has some significant drawbacks:
(a) Its rate of convergence is similar to the one of steepest descent, and is often slow. It is possible to overcome this potential drawback by a form of scaling. This can be accomplished with an iteration of the form
$$
x_{k+1} \in \arg \min {x \in X}\left{\nabla f\left(x_k\right)^{\prime}\left(x-x_k\right)+\frac{1}{2 \alpha_k}\left(x-x_k\right)^{\prime} H_k\left(x-x_k\right)\right}, $$ where $H_k$ is a positive definite symmetric matrix and $\alpha_k$ is a positive stepsize. When $H_k$ is the identity, it can be seen that this iteration gives the same iterate $x{k+1}$ as the unscaled gradient projection iteration (2.18). When $H_k=\nabla^2 f\left(x_k\right)$ and $\alpha_k=1$, we obtain a constrained form of Newton’s method (see nonlinear programming sources for analysis; e.g., [Ber99]).
(b) Depending on the nature of $X$, the projection operation may involve substantial overhead. The projection is simple when $H_k$ is the identity (or more generally, is diagonal), and $X$ consists of simple lower and/or upper bounds on the components of $x$ :
$$
X=\left{\left(x^1, \ldots, x^n\right) \mid \underline{b}^i \leq x^i \leq \bar{b}^i, i=1, \ldots, n\right} .
$$
This is an important special case where the use of gradient projection is convenient. Then the projection decomposes to $n$ scalar projections, one for each $i=1, \ldots, n$ : the $i$ th component of $x_{k+1}$ is obtained by projection of the $i$ th component of $x_k-\alpha_k \nabla f\left(x_k\right)$,
$$
\left(x_k-\alpha_k \nabla f\left(x_k\right)\right)^i,
$$
onto the interval of corresponding bounds $\left[\underline{b}^i, \bar{b}^i\right]$, and is very simple. However, for general nondiagonal scaling the overhead for solving the quadratic programming problem (2.19) is substantial even if $X$ has a simple bound structure of Eq. (2.20).

数学代写|凸优化代写Convex Optimization代考|Gradient Projection Method

凸优化代写

数学代写|凸优化代写Convex Optimization代考|Gradient Projection Method

另一种主要的可行方向方法是梯度投影法(最初在[Gol64], [LeP65]中提出),其收敛速度通常比条件梯度法更快,其形式为
$$
x_{k+1}=P_X\left(x_k-\alpha_k \nabla f\left(x_k\right)\right),
$$
其中$\alpha_k>0$是步长,$P_X(\cdot)$表示$X$上的投影(投影定义良好,因为$X$是闭合凸的;见图2.1.6)。

为了了解该方法的有效性,请注意从投影定理(附录B中的1.1.9 Prop.)中,我们有
$$
\nabla f\left(x_k\right)^{\prime}\left(x_{k+1}-x_k\right) \leq 0,
$$
并且根据凸函数的最优性条件(参见附录B中Prop. 1,1.8),不等式是严格的,除非$x_k$是最优的。因此$x_{k+1}-x_k$在$x_k$处定义了一个可行的下降方向,基于这个事实,我们可以在$\alpha_k$足够小的情况下给出$f\left(x_{k+1}\right)<f\left(x_k\right)$的下降特性。
步长$\alpha_k$的选择与无约束梯度法相似,即常数、递减或通过某种约简规则来保证代价函数下降并保证收敛到最优;参见6.1节的收敛分析和[Ber99] 2.3节的详细讨论和参考。此外,前面给出的在正定二次代价情况下无约束最陡下降的收敛速率估计[参见式(2.8)]和在奇异情况下[参见式(2.8)]。(2.9)和(2.10)]推广到不同步长规则下的梯度投影法(前一种情况见练习2.1,后一种情况见[Dun81])。

数学代写|凸优化代写Convex Optimization代考|Two-Metric Projection Methods

梯度投影法虽然简单,但也有一些明显的缺点:
(a)它的收敛速度与最陡下降的速度相似,而且往往很慢。有可能通过缩放的形式来克服这个潜在的缺点。这可以通过表单的迭代来完成
$$
x_{k+1} \in \arg \min {x \in X}\left{\nabla f\left(x_k\right)^{\prime}\left(x-x_k\right)+\frac{1}{2 \alpha_k}\left(x-x_k\right)^{\prime} H_k\left(x-x_k\right)\right}, $$其中$H_k$为正定对称矩阵,$\alpha_k$为正步长。当$H_k$为恒等时,可以看到该迭代与未缩放的梯度投影迭代(2.18)得到相同的迭代$x{k+1}$。当$H_k=\nabla^2 f\left(x_k\right)$和$\alpha_k=1$时,我们得到牛顿方法的约束形式(参见非线性规划源进行分析;例:[99])。
(b)视$X$的性质而定,投影业务可能涉及大量间接费用。当$H_k$是恒等式(或者更一般地说,是对角线)时,投影是简单的,并且$X$由$x$的组件的简单下界和/或上界组成:
$$
X=\left{\left(x^1, \ldots, x^n\right) \mid \underline{b}^i \leq x^i \leq \bar{b}^i, i=1, \ldots, n\right} .
$$
这是一个重要的特殊情况,使用梯度投影是方便的。然后投影分解为$n$标量投影,每个$i=1, \ldots, n$一个:通过投影$x_k-\alpha_k \nabla f\left(x_k\right)$的$i$个分量得到$x_{k+1}$的$i$个分量;
$$
\left(x_k-\alpha_k \nabla f\left(x_k\right)\right)^i,
$$
到相应的区间上$\left[\underline{b}^i, \bar{b}^i\right]$,而且很简单。然而,对于一般的非对角缩放,即使$X$具有Eq.(2.20)的简单界结构,解决二次规划问题(2.19)的开销也是巨大的。

数学代写|凸优化代写Convex Optimization代考

数学代写|凸优化代写Convex Optimization代考 请认准UprivateTA™. UprivateTA™为您的留学生涯保驾护航。

微观经济学代写

微观经济学是主流经济学的一个分支,研究个人和企业在做出有关稀缺资源分配的决策时的行为以及这些个人和企业之间的相互作用。my-assignmentexpert™ 为您的留学生涯保驾护航 在数学Mathematics作业代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在图论代写Graph Theory代写方面经验极为丰富,各种图论代写Graph Theory相关的作业也就用不着 说。

线性代数代写

线性代数是数学的一个分支,涉及线性方程,如:线性图,如:以及它们在向量空间和通过矩阵的表示。线性代数是几乎所有数学领域的核心。

博弈论代写

现代博弈论始于约翰-冯-诺伊曼(John von Neumann)提出的两人零和博弈中的混合策略均衡的观点及其证明。冯-诺依曼的原始证明使用了关于连续映射到紧凑凸集的布劳威尔定点定理,这成为博弈论和数学经济学的标准方法。在他的论文之后,1944年,他与奥斯卡-莫根斯特恩(Oskar Morgenstern)共同撰写了《游戏和经济行为理论》一书,该书考虑了几个参与者的合作游戏。这本书的第二版提供了预期效用的公理理论,使数理统计学家和经济学家能够处理不确定性下的决策。

微积分代写

微积分,最初被称为无穷小微积分或 “无穷小的微积分”,是对连续变化的数学研究,就像几何学是对形状的研究,而代数是对算术运算的概括研究一样。

它有两个主要分支,微分和积分;微分涉及瞬时变化率和曲线的斜率,而积分涉及数量的累积,以及曲线下或曲线之间的面积。这两个分支通过微积分的基本定理相互联系,它们利用了无限序列和无限级数收敛到一个明确定义的极限的基本概念 。

计量经济学代写

什么是计量经济学?
计量经济学是统计学和数学模型的定量应用,使用数据来发展理论或测试经济学中的现有假设,并根据历史数据预测未来趋势。它对现实世界的数据进行统计试验,然后将结果与被测试的理论进行比较和对比。

根据你是对测试现有理论感兴趣,还是对利用现有数据在这些观察的基础上提出新的假设感兴趣,计量经济学可以细分为两大类:理论和应用。那些经常从事这种实践的人通常被称为计量经济学家。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

Write a Reply or Comment

您的电子邮箱地址不会被公开。 必填项已用 * 标注