Posted on Categories:Convex optimization, 凸优化, 数学代写

数学代写|凸优化代写Convex Optimization代考|Continuity of Gradient and Directional Derivative

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization由于在大规模资源分配、信号处理和机器学习等领域的广泛应用,人们对凸优化的兴趣越来越浓厚。本书旨在解决凸优化问题的算法的最新和可访问的发展。

凸优化Convex optimization无约束可以很容易地用梯度下降(最陡下降的特殊情况)或牛顿方法解决,结合线搜索适当的步长;这些可以在数学上证明收敛速度很快,尤其是后一种方法。如果目标函数是二次函数,也可以使用KKT矩阵技术求解具有线性等式约束的凸优化(它推广到牛顿方法的一种变化,即使初始化点不满足约束也有效),但通常也可以通过线性代数消除等式约束或解决对偶问题来解决。

凸优化Convex optimization代写,免费提交作业要求, 满意后付款,成绩80\%以下全额退款,安全省心无顾虑。专业硕 博写手团队,所有订单可靠准时,保证 100% 原创。 最高质量的凸优化Convex optimization作业代写,服务覆盖北美、欧洲、澳洲等 国家。 在代写价格方面,考虑到同学们的经济条件,在保障代写质量的前提下,我们为客户提供最合理的价格。 由于作业种类很多,同时其中的大部分作业在字数上都没有具体要求,因此凸优化Convex optimization作业代写的价格不固定。通常在专家查看完作业要求之后会给出报价。作业难度和截止日期对价格也有很大的影响。

avatest™帮您通过考试

avatest™的各个学科专家已帮了学生顺利通过达上千场考试。我们保证您快速准时完成各时长和类型的考试,包括in class、take home、online、proctor。写手整理各样的资源来或按照您学校的资料教您,创造模拟试题,提供所有的问题例子,以保证您在真实考试中取得的通过率是85%以上。如果您有即将到来的每周、季考、期中或期末考试,我们都能帮助您!

在不断发展的过程中,avatest™如今已经成长为论文代写,留学生作业代写服务行业的翘楚和国际领先的教育集团。全体成员以诚信为圆心,以专业为半径,以贴心的服务时刻陪伴着您, 用专业的力量帮助国外学子取得学业上的成功。

•最快12小时交付 

•200+ 英语母语导师 

•70分以下全额退款

想知道您作业确定的价格吗? 免费下单以相关学科的专家能了解具体的要求之后在1-3个小时就提出价格。专家的 报价比上列的价格能便宜好几倍。

我们在数学Mathematics代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在凸优化Convex optimization代写方面经验极为丰富,各种凸优化Convex optimization相关的作业也就用不着 说。

数学代写|凸优化代写Convex Optimization代考|Continuity of Gradient and Directional Derivative

数学代写|凸优化代写Convex Optimization代考|Continuity of Gradient and Directional Derivative

The following exercise provides a basic continuity property of directional derivatives and gradients of convex functions. Let $f: \Re^n \mapsto \Re$ be a convex function, and let $\left{f_k\right}$ be a sequence of convex functions $f_k: \Re^n \mapsto \Re$ with the property that $\lim {k \rightarrow \infty} f_k\left(x_k\right)=f(x)$ for every $x \in \Re^n$ and every sequence $\left{x_k\right}$ that converges to $x$. Show that for any $x \in \Re^n$ and $y \in \Re^n$, and any sequences $\left{x_k\right}$ and $\left{y_k\right}$ converging to $x$ and $y$, respectively, we have $$ \limsup {k \rightarrow \infty} f_k^{\prime}\left(x_k ; y_k\right) \leq f^{\prime}(x ; y)
$$
Furthermore, if $f$ is differentiable over $\Re^n$, then it is continuously differentiable over $\Re^n$. Solution: From the definition of directional derivative, it follows that for any $\epsilon>0$, there exists an $\alpha>0$ such that
$$
\frac{f(x+\alpha y)-f(x)}{\alpha}<f^{\prime}(x ; y)+\epsilon .
$$
Hence, using also the equation
$$
f^{\prime}(x ; y)=\inf {\alpha>0} \frac{f(x+\alpha y)-f(x)}{\alpha}, $$ we have for all sufficiently large $k$, $$ f_k^{\prime}\left(x_k ; y_k\right) \leq \frac{f_k\left(x_k+\alpha y_k\right)-f_k\left(x_k\right)}{\alpha}{k \rightarrow \infty} f_k^{\prime}\left(x_k ; y_k\right) \leq f^{\prime}(x ; y)+\epsilon .
$$

数学代写|凸优化代写Convex Optimization代考|Convergence of Subgradient Method with Diminishing Stepsize Under Weaker Conditions

This exercise shows an enhanced version of Prop. 3.2.6, whereby we assume that for some scalar $c$, we have
$$
c^2\left(1+\min {x^* \in X^}\left|x_k-x^\right|^2\right) \geq\left|g_k\right|^2, \quad \forall k
$$
in place of the stronger Assumption 3.2.1. Assume also that $X^$ is nonempty and that $$ \sum{k=0}^{\infty} \alpha_k=\infty, \quad \sum_{k=0}^{\infty} \alpha_k^2<\infty . $$ Show that $\left{x_k\right}$ converges to some optimal solution. Abbreviated proof: Similar to the proof of Prop. 3.2.6 [cf. Eq. (3.18)], we apply Prop. 3.2.2(a) with $y$ equal to any $x^ \in X^$, and then use the assumption (3.41) to obtain $$ \left|x_{k+1}-x^\right|^2 \leq\left(1+\alpha_k^2 c^2\right)\left|x_k-x^\right|^2-2 \alpha_k\left(f\left(x_k\right)-f^\right)+\alpha_k^2 c^2 .
$$
In view of the assumption (3.42), the convergence result of Prop. A.4.4 of Appendix A applies, and shows that $\left{x_k\right}$ is bounded and that $\liminf _{k \rightarrow \infty} f\left(x_k\right)=$ $f^*$. From this point the proof follows the one of Prop. 3.2.6.

数学代写|凸优化代写Convex Optimization代考|Continuity of Gradient and Directional Derivative

凸优化代写

数学代写|凸优化代写Convex Optimization代考|Continuity of Gradient and Directional Derivative

本练习的目的是用成本函数的方向导数来表达Prop. 3.1.4的最优性的充分必要条件。考虑一个凸函数$f: \Re^n \mapsto \Re$在一个凸集$X \subset \Re^n$上的最小化。对于任意$x \in X$,将$f$在$x$处的可行方向集定义为凸锥
$$
D(x)={\alpha(\bar{x}-x) \mid \bar{x} \in X, \alpha>0} .
$$
证明向量$x$使$f$ / $X$最小当且仅当$x \in X$和
$$
f^{\prime}(x ; d) \geq 0, \quad \forall d \in D(x) .
$$
注:换句话说,这个条件表示当且仅当$f$在$x$处没有可行的下降方向时,$x$是最优的。解决方案:让$\overline{D(x)}$表示$D(x)$的闭包。根据提案3.1.4,当且仅当存在$g \in \partial f(x)$时,$x$使$f$比$X$最小
$$
g^{\prime} d \geq 0, \quad \forall d \in D(x)
$$
它等价于
$$
g^{\prime} d \geq 0, \quad \forall d \in \overline{D(x)}
$$
因此,当且仅当$x$使$f$比$X$最小
$$
\max {g \in \partial f(x)} \min {|d| \leq 1, d \in \overline{D(x)}} g^{\prime} d \geq 0
$$

数学代写|凸优化代写Convex Optimization代考|Convergence of Subgradient Method with Diminishing Stepsize Under Weaker Conditions

在算法实践中出现的扩展实值凸函数通常是这样的形式
$$
f(x)= \begin{cases}h(x) & \text { if } x \in X, \ \infty & \text { if } x \notin X,\end{cases}
$$
其中$h: \Re^n \mapsto \Re$为实值凸函数,$X$为非空凸集。本练习的目的是表明,与$h$是扩展实值的情况相比,此类函数的子微分具有更有利的表征。
(a)使用第3.1.3和3.1.4节来证明该函数的子微分对于所有$x \in X$都是非空的,并且具有如下形式
$$
\partial f(x)=\partial h(x)+N_X(x), \quad \forall x \in X,
$$
其中$N_X(x)$是$X$和$x \in X$的正常锥体。注:如果$h$是凸实扩展值,则此公式需要假设$\operatorname{ri}(\operatorname{dom}(h)) \cap$$\operatorname{ri}(X) \neq \varnothing$或在$h$和$X$上的一些多面体条件;证明:通过子梯度不等式(3.1),我们有$g \in \partial f(x)$当且仅当$x$在$z \in X$上最小化$p(z)=h(z)-g^{\prime} z$,或者等价地,$p$在$x$上的某个子梯度[即,在$\partial h(x)-{g}$上的向量,由Prop. 3.1.3]属于$-N_X(x)$(参见Prop. 3.1.4)。
(b)设$f(x)=-\sqrt{x}$为$x \geq 0$, $f(x)=\infty$为$x<0$。验证$f$是一个封闭的凸函数,不能以(3.35)的形式编写,并且在$x=0$上没有子梯度。
(c)对于某些$h_i$和$X_i$,给出形式为(3.35)的函数$f_i$和的次微分公式:
$$
\partial\left(f_1+\cdots+f_m\right)(x)=\partial h_1(x)+\cdots+\partial h_m(x)+N_{X_1 \cap \cdots \cap X_m}(x),
$$
对于所有$x \in X_1 \cap \cdots \cap X_m$。举例说明,在这个公式中,我们不能用$N_{X_1}(x)+\cdots+N_{X_m}(x)$代替$N_{X_1 \cap \cdots \cap X_m}(x)$。证明:写$f_1+\cdots+f_m=h+\delta_X$,其中$h=h_1+\cdots+h_m$和$X=X_1 \cap \cdots \cap X_m$。作为反例,设$m=2$、$X_1$和$X_2$为平面上的单位球,中心分别为$(-1,0)$和$(1,0)$。

数学代写|凸优化代写Convex Optimization代考

数学代写|凸优化代写Convex Optimization代考 请认准UprivateTA™. UprivateTA™为您的留学生涯保驾护航。

Posted on Categories:Convex optimization, 凸优化, 数学代写

数学代写|凸优化代写Convex Optimization代考|Diminishing Stepsize

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization由于在大规模资源分配、信号处理和机器学习等领域的广泛应用,人们对凸优化的兴趣越来越浓厚。本书旨在解决凸优化问题的算法的最新和可访问的发展。

凸优化Convex optimization无约束可以很容易地用梯度下降(最陡下降的特殊情况)或牛顿方法解决,结合线搜索适当的步长;这些可以在数学上证明收敛速度很快,尤其是后一种方法。如果目标函数是二次函数,也可以使用KKT矩阵技术求解具有线性等式约束的凸优化(它推广到牛顿方法的一种变化,即使初始化点不满足约束也有效),但通常也可以通过线性代数消除等式约束或解决对偶问题来解决。

凸优化Convex optimization代写,免费提交作业要求, 满意后付款,成绩80\%以下全额退款,安全省心无顾虑。专业硕 博写手团队,所有订单可靠准时,保证 100% 原创。 最高质量的凸优化Convex optimization作业代写,服务覆盖北美、欧洲、澳洲等 国家。 在代写价格方面,考虑到同学们的经济条件,在保障代写质量的前提下,我们为客户提供最合理的价格。 由于作业种类很多,同时其中的大部分作业在字数上都没有具体要求,因此凸优化Convex optimization作业代写的价格不固定。通常在专家查看完作业要求之后会给出报价。作业难度和截止日期对价格也有很大的影响。

avatest™帮您通过考试

avatest™的各个学科专家已帮了学生顺利通过达上千场考试。我们保证您快速准时完成各时长和类型的考试,包括in class、take home、online、proctor。写手整理各样的资源来或按照您学校的资料教您,创造模拟试题,提供所有的问题例子,以保证您在真实考试中取得的通过率是85%以上。如果您有即将到来的每周、季考、期中或期末考试,我们都能帮助您!

在不断发展的过程中,avatest™如今已经成长为论文代写,留学生作业代写服务行业的翘楚和国际领先的教育集团。全体成员以诚信为圆心,以专业为半径,以贴心的服务时刻陪伴着您, 用专业的力量帮助国外学子取得学业上的成功。

•最快12小时交付 

•200+ 英语母语导师 

•70分以下全额退款

想知道您作业确定的价格吗? 免费下单以相关学科的专家能了解具体的要求之后在1-3个小时就提出价格。专家的 报价比上列的价格能便宜好几倍。

我们在数学Mathematics代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在凸优化Convex optimization代写方面经验极为丰富,各种凸优化Convex optimization相关的作业也就用不着 说。

数学代写|凸优化代写Convex Optimization代考|Diminishing Stepsize

数学代写|凸优化代写Convex Optimization代考|Diminishing Stepsize

We next consider the case where the stepsize $\alpha_k$ diminishes to zero, but satisfies $\sum_{k=0}^{\infty} \alpha_k=\infty$. This condition is needed so that the method can “travel” infinitely far if necessary to attain convergence; otherwise, convergence to $X^$ may be impossible from starting points $x_0$ that are far from $X^$, as for example in the case where $X=\Re^n$ and
$$
d\left(x_0\right)>c \sum_{k=0}^{\infty} \alpha_k,
$$
with $c$ being the constant in Assumption 3.2.1. A common choice that satisfies $\alpha_k \rightarrow 0$ and $\sum_{k=0}^{\infty} \alpha_k=\infty$ is
$$
\alpha_k=\frac{\beta}{k+\gamma},
$$
where $\beta$ and $\gamma$ are some positive scalars, often determined by some preliminary experimentation. $t$

Proposition 3.2.6: (Convergence) Let Assumption 3.2.1 hold. If $\alpha_k$ satisfies
$$
\lim {k \rightarrow \infty} \alpha_k=0, \quad \sum{k=0}^{\infty} \alpha_k=\infty,
$$
then $f_{\infty}=f^$. Moreover if $$ \sum_{k=0}^{\infty} \alpha_k^2<\infty $$ and $X^$ is nonempty, then $\left{x_k\right}$ converges to some optinal solution.

数学代写|凸优化代写Convex Optimization代考|SUBGRADIENT METHODS

In this section we briefly discuss subgradient-like methods that use approximate subgradients in place of subgradients. There may be several different motivations for such methods; for example, computational savings in the subgradient calculation, or exploitation of special problem structure.
Given a proper convex function $f: \Re^n \mapsto(-\infty, \infty]$ and a scalar $\epsilon>0$, we say that a vector $g$ is an $\epsilon$-subgradient of $f$ at a point $x \in \operatorname{dom}(f)$ if
$$
f(z) \geq f(x)+(z-x)^{\prime} g-\epsilon, \quad \forall z \in \Re^n .
$$
The $\epsilon$-subdifferential $\partial_\epsilon f(x)$ is the set of all $\epsilon$-subgradients of $f$ at $x$, and by convention, $\partial_\epsilon f(x)=\varnothing$ for $x \notin \operatorname{dom}(f)$. It can be seen that
$$
\partial_{\epsilon_1} f(x) \subset \partial_{\epsilon_2} f(x) \quad \text { if } 0<\epsilon_1<\epsilon_2,
$$
and that
$$
\cap_{\epsilon \downarrow 0} \partial_\epsilon f(x)=\partial f(x)
$$
To interpret geometrically an $\epsilon$-subgradient, note that the defining relation (3.27) can be written as
$$
f(z)-z^{\prime} g \geq(f(x)-\epsilon)-x^{\prime} g, \quad \forall z \in \Re^n .
$$

数学代写|凸优化代写Convex Optimization代考|Diminishing Stepsize

凸优化代写

数学代写|凸优化代写Convex Optimization代考|Diminishing Stepsize

接下来我们考虑步长$\alpha_k$减小到零,但满足$\sum_{k=0}^{\infty} \alpha_k=\infty$的情况。这个条件是必要的,以便该方法可以“旅行”无限远,如果需要达到收敛;否则,可能不可能从远离$X^$的起始点$x_0$收敛到$X^$,例如$X=\Re^n$和
$$
d\left(x_0\right)>c \sum_{k=0}^{\infty} \alpha_k,
$$
其中$c$为假设3.2.1中的常数。满足$\alpha_k \rightarrow 0$和$\sum_{k=0}^{\infty} \alpha_k=\infty$的常见选择是
$$
\alpha_k=\frac{\beta}{k+\gamma},
$$
其中$\beta$和$\gamma$是一些正标量,通常由一些初步实验确定。 $t$

命题3.2.6:(收敛性)设假设3.2.1成立。如果$\alpha_k$满足
$$
\lim {k \rightarrow \infty} \alpha_k=0, \quad \sum{k=0}^{\infty} \alpha_k=\infty,
$$
然后$f_{\infty}=f^$。此外,如果$$ \sum_{k=0}^{\infty} \alpha_k^2<\infty $$和$X^$非空,则$\left{x_k\right}$收敛于某个最优解。

数学代写|凸优化代写Convex Optimization代考|SUBGRADIENT METHODS

在本节中,我们简要讨论使用近似亚梯度代替亚梯度的类亚梯度方法。这些方法可能有几个不同的动机;例如,在亚梯度计算中节省的计算量,或者利用特殊的问题结构。
给定一个固有凸函数$f: \Re^n \mapsto(-\infty, \infty]$和一个标量$\epsilon>0$,我们说向量$g$是$f$在一点$x \in \operatorname{dom}(f)$ if处的一个$\epsilon$ -子梯度
$$
f(z) \geq f(x)+(z-x)^{\prime} g-\epsilon, \quad \forall z \in \Re^n .
$$
$\epsilon$ -subdifferential $\partial_\epsilon f(x)$是$f$ at $x$的所有$\epsilon$ -subgradients的集合,按照惯例,$\partial_\epsilon f(x)=\varnothing$ for $x \notin \operatorname{dom}(f)$。可以看出
$$
\partial_{\epsilon_1} f(x) \subset \partial_{\epsilon_2} f(x) \quad \text { if } 0<\epsilon_1<\epsilon_2,
$$
这就是
$$
\cap_{\epsilon \downarrow 0} \partial_\epsilon f(x)=\partial f(x)
$$
要从几何上解释$\epsilon$ -子梯度,请注意定义关系(3.27)可以写成
$$
f(z)-z^{\prime} g \geq(f(x)-\epsilon)-x^{\prime} g, \quad \forall z \in \Re^n .
$$

数学代写|凸优化代写Convex Optimization代考

数学代写|凸优化代写Convex Optimization代考 请认准UprivateTA™. UprivateTA™为您的留学生涯保驾护航。

Posted on Categories:Convex optimization, 凸优化, 数学代写

数学代写|凸优化代写Convex Optimization代考|Convergence Rate of the Kaczmarz Algorithm with Random Projection [StV09]

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization由于在大规模资源分配、信号处理和机器学习等领域的广泛应用,人们对凸优化的兴趣越来越浓厚。本书旨在解决凸优化问题的算法的最新和可访问的发展。

凸优化Convex optimization无约束可以很容易地用梯度下降(最陡下降的特殊情况)或牛顿方法解决,结合线搜索适当的步长;这些可以在数学上证明收敛速度很快,尤其是后一种方法。[22]如果目标函数是二次函数,也可以使用KKT矩阵技术求解具有线性等式约束的凸优化(它推广到牛顿方法的一种变化,即使初始化点不满足约束也有效),但通常也可以通过线性代数消除等式约束或解决对偶问题来解决。

凸优化Convex optimization代写,免费提交作业要求, 满意后付款,成绩80\%以下全额退款,安全省心无顾虑。专业硕 博写手团队,所有订单可靠准时,保证 100% 原创。 最高质量的凸优化Convex optimization作业代写,服务覆盖北美、欧洲、澳洲等 国家。 在代写价格方面,考虑到同学们的经济条件,在保障代写质量的前提下,我们为客户提供最合理的价格。 由于作业种类很多,同时其中的大部分作业在字数上都没有具体要求,因此凸优化Convex optimization作业代写的价格不固定。通常在专家查看完作业要求之后会给出报价。作业难度和截止日期对价格也有很大的影响。

avatest™帮您通过考试

avatest™的各个学科专家已帮了学生顺利通过达上千场考试。我们保证您快速准时完成各时长和类型的考试,包括in class、take home、online、proctor。写手整理各样的资源来或按照您学校的资料教您,创造模拟试题,提供所有的问题例子,以保证您在真实考试中取得的通过率是85%以上。如果您有即将到来的每周、季考、期中或期末考试,我们都能帮助您!

在不断发展的过程中,avatest™如今已经成长为论文代写,留学生作业代写服务行业的翘楚和国际领先的教育集团。全体成员以诚信为圆心,以专业为半径,以贴心的服务时刻陪伴着您, 用专业的力量帮助国外学子取得学业上的成功。

•最快12小时交付 

•200+ 英语母语导师 

•70分以下全额退款

想知道您作业确定的价格吗? 免费下单以相关学科的专家能了解具体的要求之后在1-3个小时就提出价格。专家的 报价比上列的价格能便宜好几倍。

我们在数学Mathematics代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在凸优化Convex optimization代写方面经验极为丰富,各种凸优化Convex optimization相关的作业也就用不着 说。

数学代写|凸优化代写Convex Optimization代考|Convergence Rate of the Kaczmarz Algorithm with Random Projection [StV09]

数学代写|凸优化代写Convex Optimization代考|Convergence Rate of the Kaczmarz Algorithm with Random Projection [StV09]

Consider a consistent system of linear equations $c_i^{\prime} x=b_i, i=1, \ldots, m$, and assume for convenience that the vectors $c_i$ have been scaled so that $\left|c_i\right|=1$ for all $i$. A randomized version of the Kaczmarz method is given by
$$
x_{k+1}=x_k-\left(c_{i_k}^{\prime} x-b_{i_k}\right) c_{i_k}
$$
where $i_k$ is an index randomly chosen from the set ${1, \ldots, m}$ with equal probabilities $1 / m$, independently of previous choices. Let $P(x)$ denote the Euclidean projection of a vector $x \in \Re^n$ onto the set of solutions of the system, and let $C$ be the matrix whose rows are $c_1, \ldots, c_m$. Show that
$$
E\left{\left|x_{k+1}-P\left(x_{k+1}\right)\right|^2\right} \leq\left(1-\frac{\lambda_{\min }}{m}\right) E\left{\left|x_k-P\left(x_k\right)\right|^2\right},
$$
where $\lambda_{\min }$ is the minimum eigenvalue of the matrix $C^{\prime} C$. Hint: Show that
$$
\left|x_{k+1}-P\left(x_{k+1}\right)\right|^2 \leq\left|x_{k+1}-P\left(x_k\right)\right|^2=\left|x_k-P\left(x_k\right)\right|^2-\left(c_{i_k}^{\prime} x_{i_k}-b_{i_k}\right)^2 \text {, }
$$
and take conditional expectation of both sides to show that
$$
\begin{aligned}
E\left{\left|x_{k+1}-P\left(x_{k+1}\right)\right|^2 \mid x_k\right} & \leq\left|x_k-P\left(x_k\right)\right|^2-\frac{1}{m}\left|C x_k-b\right|^2 \
& \leq\left(1-\frac{\lambda_{\min }}{m}\right)\left|x_k-P\left(x_k\right)\right|^2 .
\end{aligned}
$$

数学代写|凸优化代写Convex Optimization代考|Limit Cycle of Incremental Gradient Method [Luo91]

Consider the linear least squares problem of minimizing
$$
f(x)=\frac{1}{2} \sum_{i=1}^m\left|z_i-C_i x\right|^2
$$
over $x \in \Re^n$, where the vectors $z_i$ and the matrices $C_i$ are given. Let $x_k$ be the vector at the start of cycle $k$ of the incremental gradient method that operates in cycles where components are selected according to a fixed order. Thus we have
$$
x_{k+1}=x_k+\alpha_k \sum_{i=1}^m C_i^{\prime}\left(z_i-C_i \psi_{i-1}\right),
$$
where $\psi_0=x_k$ and
$$
\psi_i=\psi_{i-1}+\alpha_k C_i^{\prime}\left(z_i-C_i \psi_{i-1}\right), \quad i=1, \ldots, m .
$$
Assume that $\sum_{i=1}^m C_i^{\prime} C_i$ is a positive definite matrix and let $x^$ be the optimal solution. Then: (a) There exists $\bar{\alpha}>0$ such that if $\alpha_k$ is equal to some constant $\alpha \in(0, \bar{\alpha}]$ for all $k,\left{x_k\right}$ converges to some vector $x(\alpha)$. Furthermore, the error $\left|x_k-x(\alpha)\right|$ converges to 0 linearly. In addition, we have $\lim {\alpha \rightarrow 0} x(\alpha)=$ $x^$. Hint: Show that the mapping that produces $x{k+1}$ starting from $x_k$ is a contraction mapping for $\alpha$ sufficiently small.
(b) If $\alpha_k>0$ for all $k$, and
$$
\alpha_k \rightarrow 0, \quad \sum_{k=0}^{\infty} \alpha_k=\infty
$$
then $\left{x_k\right}$ converges to $x^*$. Hint: Use Prop. A.4.3 of Appendix A.
Note: The ideas of this exercise are due to [Luo91]. For a complete solution, see [BeT96], Section 3.2, or [Ber99], Section 1.5.

数学代写|凸优化代写Convex Optimization代考|Convergence Rate of the Kaczmarz Algorithm with Random Projection [StV09]

凸优化代写

数学代写|凸优化代写Convex Optimization代考|Convergence Rate of the Kaczmarz Algorithm with Random Projection [StV09]

考虑一个一致的线性方程组$c_i^{\prime} x=b_i, i=1, \ldots, m$,为方便起见,假设向量$c_i$已被缩放,以便$\left|c_i\right|=1$适用于所有$i$。Kaczmarz方法的随机化版本由
$$
x_{k+1}=x_k-\left(c_{i_k}^{\prime} x-b_{i_k}\right) c_{i_k}
$$
其中$i_k$是从集合${1, \ldots, m}$中随机选择的索引,具有等概率$1 / m$,独立于之前的选择。设$P(x)$表示向量$x \in \Re^n$在方程组解集合上的欧几里得投影,设$C$为行为$c_1, \ldots, c_m$的矩阵。证明给我看
$$
E\left{\left|x_{k+1}-P\left(x_{k+1}\right)\right|^2\right} \leq\left(1-\frac{\lambda_{\min }}{m}\right) E\left{\left|x_k-P\left(x_k\right)\right|^2\right},
$$
其中$\lambda_{\min }$为矩阵$C^{\prime} C$的最小特征值。提示:展示
$$
\left|x_{k+1}-P\left(x_{k+1}\right)\right|^2 \leq\left|x_{k+1}-P\left(x_k\right)\right|^2=\left|x_k-P\left(x_k\right)\right|^2-\left(c_{i_k}^{\prime} x_{i_k}-b_{i_k}\right)^2 \text {, }
$$
然后取两边的条件期望来表示
$$
\begin{aligned}
E\left{\left|x_{k+1}-P\left(x_{k+1}\right)\right|^2 \mid x_k\right} & \leq\left|x_k-P\left(x_k\right)\right|^2-\frac{1}{m}\left|C x_k-b\right|^2 \
& \leq\left(1-\frac{\lambda_{\min }}{m}\right)\left|x_k-P\left(x_k\right)\right|^2 .
\end{aligned}
$$

数学代写|凸优化代写Convex Optimization代考|Limit Cycle of Incremental Gradient Method [Luo91]

考虑最小化的线性最小二乘问题
$$
f(x)=\frac{1}{2} \sum_{i=1}^m\left|z_i-C_i x\right|^2
$$
除以$x \in \Re^n$,其中向量$z_i$和矩阵$C_i$是已知的。设$x_k$为增量梯度法在循环$k$开始处的向量,增量梯度法在循环中按固定顺序选择组件。因此我们有
$$
x_{k+1}=x_k+\alpha_k \sum_{i=1}^m C_i^{\prime}\left(z_i-C_i \psi_{i-1}\right),
$$
其中$\psi_0=x_k$和
$$
\psi_i=\psi_{i-1}+\alpha_k C_i^{\prime}\left(z_i-C_i \psi_{i-1}\right), \quad i=1, \ldots, m .
$$
设$\sum_{i=1}^m C_i^{\prime} C_i$为正定矩阵,设$x^$为最优解。那么:(a)存在$\bar{\alpha}>0$,使得$\alpha_k$等于某个常数$\alpha \in(0, \bar{\alpha}]$对于所有$k,\left{x_k\right}$收敛于某个向量$x(\alpha)$。此外,误差$\left|x_k-x(\alpha)\right|$线性收敛于0。此外,我们还有$\lim {\alpha \rightarrow 0} x(\alpha)=$$x^$。提示:显示从$x_k$开始生成$x{k+1}$的映射是一个足够小的$\alpha$的收缩映射。
(b)如果$\alpha_k>0$适用于所有$k$,并且
$$
\alpha_k \rightarrow 0, \quad \sum_{k=0}^{\infty} \alpha_k=\infty
$$
然后$\left{x_k\right}$收敛到$x^*$。提示:使用道具。附录A.4.3
注:本练习的思想来源于[珞91]。完整的解决方案请参见[BeT96] 3.2节或[Ber99] 1.5节。

数学代写|凸优化代写Convex Optimization代考

数学代写|凸优化代写Convex Optimization代考 请认准UprivateTA™. UprivateTA™为您的留学生涯保驾护航。

Posted on Categories:Convex optimization, 凸优化, 数学代写

数学代写|凸优化代写Convex Optimization代考|Convergence Rate of Steepest Descent and Gradient Projection for a Quadratic Cost Function

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP-hard。

凸优化Convex optimization是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类别的凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP困难的。凸优化在许多学科中都有应用,如自动控制系统、估计和信号处理、通信和网络、电子电路设计、数据分析和建模、金融、统计(最佳实验设计)、和结构优化,其中近似概念被证明是有效的。

凸优化Convex optimization代写,免费提交作业要求, 满意后付款,成绩80\%以下全额退款,安全省心无顾虑。专业硕 博写手团队,所有订单可靠准时,保证 100% 原创。 最高质量的凸优化Convex optimization作业代写,服务覆盖北美、欧洲、澳洲等 国家。 在代写价格方面,考虑到同学们的经济条件,在保障代写质量的前提下,我们为客户提供最合理的价格。 由于作业种类很多,同时其中的大部分作业在字数上都没有具体要求,因此凸优化Convex optimization作业代写的价格不固定。通常在专家查看完作业要求之后会给出报价。作业难度和截止日期对价格也有很大的影响。

avatest™帮您通过考试

avatest™的各个学科专家已帮了学生顺利通过达上千场考试。我们保证您快速准时完成各时长和类型的考试,包括in class、take home、online、proctor。写手整理各样的资源来或按照您学校的资料教您,创造模拟试题,提供所有的问题例子,以保证您在真实考试中取得的通过率是85%以上。如果您有即将到来的每周、季考、期中或期末考试,我们都能帮助您!

在不断发展的过程中,avatest™如今已经成长为论文代写,留学生作业代写服务行业的翘楚和国际领先的教育集团。全体成员以诚信为圆心,以专业为半径,以贴心的服务时刻陪伴着您, 用专业的力量帮助国外学子取得学业上的成功。

•最快12小时交付 

•200+ 英语母语导师 

•70分以下全额退款

想知道您作业确定的价格吗? 免费下单以相关学科的专家能了解具体的要求之后在1-3个小时就提出价格。专家的 报价比上列的价格能便宜好几倍。

我们在数学Mathematics代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在凸优化Convex optimization代写方面经验极为丰富,各种凸优化Convex optimization相关的作业也就用不着 说。

数学代写|凸优化代写Convex Optimization代考|Convergence Rate of Steepest Descent and Gradient Projection for a Quadratic Cost Function

数学代写|凸优化代写Convex Optimization代考|Convergence Rate of Steepest Descent and Gradient Projection for a Quadratic Cost Function

Let $f$ be the quadratic cost function,
$$
f(x)=\frac{1}{2} x^{\prime} Q x-b^{\prime} x
$$
where $Q$ is a symmetric positive definite matrix, and let $m$ and $M$ be the minimum and maximum eigenvalues of $Q$, respectively. Consider the minimization of $f$ over a closed convex set $X$ and the gradient projection mapping
$$
G(x)=P_X(x-\alpha \nabla f(x))
$$
with constant stepsize $\alpha<2 / M$.
(a) Show that $G$ is a contraction mapping and we have
$$
|G(x)-G(y)|| \leq \max {|1-\alpha m|,|1-\alpha M|}| x-y |, \quad \forall x, y \in \Re^n,
$$
and its unique fixed point is the unique minimum $x^*$ of $f$ over $X$. Solution: First note the nonexpansive property of the projection
$$
\left|P_X(x)-P_X(y)\right| \leq|x-y|, \quad \forall x, y \in \Re^n
$$
(use a Euclidean geometric argument, or see Section 3.2 for a proof). Use this property and the gradient formula $\nabla f(x)=Q x-b$ to write
$$
\begin{aligned}
|G(x)-G(y)| & =\left|P_X(x-\alpha \nabla f(x))-P_X(y-\alpha \nabla f(y))\right| \
& \leq|(x-\alpha \nabla f(x))-(y-\alpha \nabla f(y))| \
& =|(I-\alpha Q)(x-y)| \
& \leq \max {|1-\alpha m|,|1-\alpha M|}|x-y|,
\end{aligned}
$$
where $m$ and $M$ are the minimum and maximum eigenvalues of $Q$. Clearly $x^$ is a fixed point of $G$ if and only if $x^=P_X\left(x^-\alpha \nabla f\left(x^\right)\right)$, which by the projection theorem, is true if and only if the necessary and sufficient condition for optimality $\nabla f\left(x^\right)^{\prime}\left(x-x^\right) \geq 0$ for all $x \in X$ is satisfied. Note: In a generalization of this convergence rate estimate to the case of a nonquadratic strongly convex differentiable function $f$, the maximum eigenvalue $M$ is replaced by the Lipschitz constant of $\nabla f$ and the minimum eigenvalue $m$ is replaced by the modulus of strong convexity of $f$; see Section 6.1.

数学代写|凸优化代写Convex Optimization代考|Descent Inequality

This exercise deals with an inequality that is fundamental for the convergence analysis of gradient methods. Let $X$ be a convex set, and let $f: \Re^n \mapsto \Re$ be a differentiable function such that for some constant $L>0$, we have
$$
|\nabla f(x)-\nabla f(y)| \leq L|x-y|, \quad \forall x, y \in X
$$
Show that
$$
f(y) \leq f(x)+\nabla f(x)^{\prime}(y-x)+\frac{L}{2}|y-x|^2, \quad \forall x, y \in X
$$
Proof: Let $t$ be a scalar parameter and let $g(t)=f(x+t(y-x))$. The chain rule yields $(d g / d t)(t)=\nabla f(x+t(y-x))^{\prime}(y-x)$. Thus, we have
$$
\begin{aligned}
f(y) & -f(x)=g(1)-g(0) \
& =\int_0^1 \frac{d g}{d t}(t) d t \
& =\int_0^1(y-x)^{\prime} \nabla f(x+t(y-x)) d t \
& \leq \int_0^1(y-x)^{\prime} \nabla f(x) d t+\left|\int_0^1(y-x)^{\prime}(\nabla f(x+t(y-x))-\nabla f(x)) d t\right| \
& \leq \int_0^1(y-x)^{\prime} \nabla f(x) d t+\int_0^1|y-x| \cdot|\nabla f(x+t(y-x))-\nabla f(x)| d t \
& \leq(y-x)^{\prime} \nabla f(x)+|y-x| \int_0^1 L t|y-x| d t \
& =(y-x)^{\prime} \nabla f(x)+\frac{L}{2}|y-x|^2
\end{aligned}
$$

(Convergence of Steepest Descent with Constant Stepsize)
Let $f: \Re^n \mapsto \Re$ be a differentiable function such that for some constant $L>0$, we have
$$
|\nabla f(x)-\nabla f(y)| \leq L|x-y|, \quad \forall x, y \in \Re^n
$$
Consider the sequence $\left{x_k\right}$ generated by the steepest descent iteration
$$
x_{k+1}=x_k-\alpha \nabla f\left(x_k\right)
$$
where $0<\alpha<\frac{2}{L}$. Show that if $\left{x_k\right}$ has a limit point, then $\nabla f\left(x_k\right) \rightarrow 0$, and every limit point $\bar{x}$ of $\left{x_k\right}$ satisfies $\nabla f(\bar{x})=0$. Proof: We use the descent inequality $(2.70)$ to show that the cost function is reduced at each iteration according to
$$
\begin{aligned}
f\left(x_{k+1}\right) & =f\left(x_k-\alpha \nabla f\left(x_k\right)\right) \
& \leq f\left(x_k\right)+\nabla f\left(x_k\right)^{\prime}\left(-\alpha \nabla f\left(x_k\right)\right)+\frac{\alpha^2 L}{2}\left|\nabla f\left(x_k\right)\right|^2 \
& =f\left(x_k\right)-\alpha\left(1-\frac{\alpha L}{2}\right)\left|\nabla f\left(x_k\right)\right|^2
\end{aligned}
$$
Thus if there exists a limit point $\bar{x}$ of $\left{x_k\right}$, we have $f\left(x_k\right) \rightarrow f(\bar{x})$ and $\nabla f\left(x_k\right) \rightarrow 0$. This implies that $\nabla f(\bar{x})=0$, since $\nabla f(\cdot)$ is continuous by Eq. $(2.71)$

数学代写|凸优化代写Convex Optimization代考|Convergence Rate of Steepest Descent and Gradient Projection for a Quadratic Cost Function

凸优化代写

数学代写|凸优化代写Convex Optimization代考|Convergence Rate of Steepest Descent and Gradient Projection for a Quadratic Cost Function

设$f$为二次代价函数,
$$
f(x)=\frac{1}{2} x^{\prime} Q x-b^{\prime} x
$$
式中$Q$为对称正定矩阵,设$m$和$M$分别为$Q$的最小特征值和最大特征值。考虑在封闭凸集$X$和梯度投影映射上最小化$f$
$$
G(x)=P_X(x-\alpha \nabla f(x))
$$
步长不变$\alpha<2 / M$。
(a)证明$G$是一个收缩映射,我们有
$$
|G(x)-G(y)|| \leq \max {|1-\alpha m|,|1-\alpha M|}| x-y |, \quad \forall x, y \in \Re^n,
$$
它的唯一不动点是$f$ / $X$的唯一最小值$x^*$。解决方法:首先注意投影的非膨胀性
$$
\left|P_X(x)-P_X(y)\right| \leq|x-y|, \quad \forall x, y \in \Re^n
$$
(使用欧几里得几何论证,或参见第3.2节的证明)。使用这个属性和梯度公式$\nabla f(x)=Q x-b$来写
$$
\begin{aligned}
|G(x)-G(y)| & =\left|P_X(x-\alpha \nabla f(x))-P_X(y-\alpha \nabla f(y))\right| \
& \leq|(x-\alpha \nabla f(x))-(y-\alpha \nabla f(y))| \
& =|(I-\alpha Q)(x-y)| \
& \leq \max {|1-\alpha m|,|1-\alpha M|}|x-y|,
\end{aligned}
$$
其中$m$和$M$分别为$Q$的最小和最大特征值。显然$x^$是$G$的不动点,当且仅当$x^=P_X\left(x^-\alpha \nabla f\left(x^\right)\right)$,根据投影定理,当且仅当所有$x \in X$的最优性的充要条件$\nabla f\left(x^\right)^{\prime}\left(x-x^\right) \geq 0$满足时,为真。注:将此收敛速率估计推广到非二次强凸可微函数$f$的情况,最大特征值$M$用$\nabla f$的Lipschitz常数代替,最小特征值$m$用$f$的强凸模代替;参见6.1节。

数学代写|凸优化代写Convex Optimization代考|Descent Inequality

这个练习处理一个不等式,它是梯度方法收敛分析的基础。设$X$是一个凸集,设$f: \Re^n \mapsto \Re$是一个可微函数对于某个常数$L>0$,我们有
$$
|\nabla f(x)-\nabla f(y)| \leq L|x-y|, \quad \forall x, y \in X
$$
证明给我看
$$
f(y) \leq f(x)+\nabla f(x)^{\prime}(y-x)+\frac{L}{2}|y-x|^2, \quad \forall x, y \in X
$$
证明:设$t$为标量参数,设$g(t)=f(x+t(y-x))$。链式法则得出$(d g / d t)(t)=\nabla f(x+t(y-x))^{\prime}(y-x)$。因此,我们有
$$
\begin{aligned}
f(y) & -f(x)=g(1)-g(0) \
& =\int_0^1 \frac{d g}{d t}(t) d t \
& =\int_0^1(y-x)^{\prime} \nabla f(x+t(y-x)) d t \
& \leq \int_0^1(y-x)^{\prime} \nabla f(x) d t+\left|\int_0^1(y-x)^{\prime}(\nabla f(x+t(y-x))-\nabla f(x)) d t\right| \
& \leq \int_0^1(y-x)^{\prime} \nabla f(x) d t+\int_0^1|y-x| \cdot|\nabla f(x+t(y-x))-\nabla f(x)| d t \
& \leq(y-x)^{\prime} \nabla f(x)+|y-x| \int_0^1 L t|y-x| d t \
& =(y-x)^{\prime} \nabla f(x)+\frac{L}{2}|y-x|^2
\end{aligned}
$$

(恒步长最陡下降的收敛性)
设$f: \Re^n \mapsto \Re$是一个可微函数对于某个常数$L>0$,我们有
$$
|\nabla f(x)-\nabla f(y)| \leq L|x-y|, \quad \forall x, y \in \Re^n
$$
考虑由最陡下降迭代生成的序列$\left{x_k\right}$
$$
x_{k+1}=x_k-\alpha \nabla f\left(x_k\right)
$$
在哪里$0<\alpha<\frac{2}{L}$。证明如果$\left{x_k\right}$有一个极限值点,则$\nabla f\left(x_k\right) \rightarrow 0$,并且$\left{x_k\right}$的每个极限值点$\bar{x}$都满足$\nabla f(\bar{x})=0$。证明:我们使用下降不等式$(2.70)$来证明成本函数在每次迭代中都是根据
$$
\begin{aligned}
f\left(x_{k+1}\right) & =f\left(x_k-\alpha \nabla f\left(x_k\right)\right) \
& \leq f\left(x_k\right)+\nabla f\left(x_k\right)^{\prime}\left(-\alpha \nabla f\left(x_k\right)\right)+\frac{\alpha^2 L}{2}\left|\nabla f\left(x_k\right)\right|^2 \
& =f\left(x_k\right)-\alpha\left(1-\frac{\alpha L}{2}\right)\left|\nabla f\left(x_k\right)\right|^2
\end{aligned}
$$
因此,如果存在一个极限点$\bar{x}$的$\left{x_k\right}$,我们有$f\left(x_k\right) \rightarrow f(\bar{x})$和$\nabla f\left(x_k\right) \rightarrow 0$。这意味着$\nabla f(\bar{x})=0$,因为$\nabla f(\cdot)$通过Eq是连续的。 $(2.71)$

数学代写|凸优化代写Convex Optimization代考

数学代写|凸优化代写Convex Optimization代考 请认准UprivateTA™. UprivateTA™为您的留学生涯保驾护航。

微观经济学代写

微观经济学是主流经济学的一个分支,研究个人和企业在做出有关稀缺资源分配的决策时的行为以及这些个人和企业之间的相互作用。my-assignmentexpert™ 为您的留学生涯保驾护航 在数学Mathematics作业代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在图论代写Graph Theory代写方面经验极为丰富,各种图论代写Graph Theory相关的作业也就用不着 说。

线性代数代写

线性代数是数学的一个分支,涉及线性方程,如:线性图,如:以及它们在向量空间和通过矩阵的表示。线性代数是几乎所有数学领域的核心。

博弈论代写

现代博弈论始于约翰-冯-诺伊曼(John von Neumann)提出的两人零和博弈中的混合策略均衡的观点及其证明。冯-诺依曼的原始证明使用了关于连续映射到紧凑凸集的布劳威尔定点定理,这成为博弈论和数学经济学的标准方法。在他的论文之后,1944年,他与奥斯卡-莫根斯特恩(Oskar Morgenstern)共同撰写了《游戏和经济行为理论》一书,该书考虑了几个参与者的合作游戏。这本书的第二版提供了预期效用的公理理论,使数理统计学家和经济学家能够处理不确定性下的决策。

微积分代写

微积分,最初被称为无穷小微积分或 “无穷小的微积分”,是对连续变化的数学研究,就像几何学是对形状的研究,而代数是对算术运算的概括研究一样。

它有两个主要分支,微分和积分;微分涉及瞬时变化率和曲线的斜率,而积分涉及数量的累积,以及曲线下或曲线之间的面积。这两个分支通过微积分的基本定理相互联系,它们利用了无限序列和无限级数收敛到一个明确定义的极限的基本概念 。

计量经济学代写

什么是计量经济学?
计量经济学是统计学和数学模型的定量应用,使用数据来发展理论或测试经济学中的现有假设,并根据历史数据预测未来趋势。它对现实世界的数据进行统计试验,然后将结果与被测试的理论进行比较和对比。

根据你是对测试现有理论感兴趣,还是对利用现有数据在这些观察的基础上提出新的假设感兴趣,计量经济学可以细分为两大类:理论和应用。那些经常从事这种实践的人通常被称为计量经济学家。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

Posted on Categories:Convex optimization, 凸优化, 数学代写

数学代写|凸优化代写Convex Optimization代考|APPROXIMATION METHODS

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP-hard。

凸优化Convex optimization是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类别的凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP困难的。凸优化在许多学科中都有应用,如自动控制系统、估计和信号处理、通信和网络、电子电路设计、数据分析和建模、金融、统计(最佳实验设计)、和结构优化,其中近似概念被证明是有效的。

凸优化Convex optimization代写,免费提交作业要求, 满意后付款,成绩80\%以下全额退款,安全省心无顾虑。专业硕 博写手团队,所有订单可靠准时,保证 100% 原创。 最高质量的凸优化Convex optimization作业代写,服务覆盖北美、欧洲、澳洲等 国家。 在代写价格方面,考虑到同学们的经济条件,在保障代写质量的前提下,我们为客户提供最合理的价格。 由于作业种类很多,同时其中的大部分作业在字数上都没有具体要求,因此凸优化Convex optimization作业代写的价格不固定。通常在专家查看完作业要求之后会给出报价。作业难度和截止日期对价格也有很大的影响。

avatest™帮您通过考试

avatest™的各个学科专家已帮了学生顺利通过达上千场考试。我们保证您快速准时完成各时长和类型的考试,包括in class、take home、online、proctor。写手整理各样的资源来或按照您学校的资料教您,创造模拟试题,提供所有的问题例子,以保证您在真实考试中取得的通过率是85%以上。如果您有即将到来的每周、季考、期中或期末考试,我们都能帮助您!

在不断发展的过程中,avatest™如今已经成长为论文代写,留学生作业代写服务行业的翘楚和国际领先的教育集团。全体成员以诚信为圆心,以专业为半径,以贴心的服务时刻陪伴着您, 用专业的力量帮助国外学子取得学业上的成功。

•最快12小时交付 

•200+ 英语母语导师 

•70分以下全额退款

想知道您作业确定的价格吗? 免费下单以相关学科的专家能了解具体的要求之后在1-3个小时就提出价格。专家的 报价比上列的价格能便宜好几倍。

我们在数学Mathematics代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在凸优化Convex optimization代写方面经验极为丰富,各种凸优化Convex optimization相关的作业也就用不着 说。

数学代写|凸优化代写Convex Optimization代考|APPROXIMATION METHODS

数学代写|凸优化代写Convex Optimization代考|APPROXIMATION METHODS

Approximation methods for minimizing a convex function $f: \Re^n \mapsto \Re$ over a convex set $X$, are based on replacing $f$ and $X$ with approximations $F_k$ and $X_k$, respectively, at each iteration $k$, and finding
$$
x_{k+1} \in \arg \min {x \in X_k} F_k(x) . $$ At the next iteration, $F{k+1}$ and $X_{k+1}$ are generated by refining the approximation, based on the new point $x_{k+1}$, and possibly on the earlier points $x_k, \ldots, x_0$. Of course such a method makes sense only if the approximating problems are simpler than the original. There is a great variety of approximation methods, with different aims, and suitable for different circumstances. The present section provides a brief overview and orientation, while Chapters 4-6 provide a detailed analysis.
2.2.1 Polyhedral Approximation
In polyhedral approximation methods, $F_k$ is a polyhedral function that approximates $f$ and $X_k$ is a polyhedral set that approximates $X$. The idea is that the approximate problem is polyhedral, so it may be easier to solve than the original problem. The methods include mechanisms for progressively refining the approximation, thereby obtaining a solution of the original problem in the limit. In some cases, only one of $f$ and $X$ is polyhedrally approximated.

In Chapter 4, we will discuss the two main approaches for polyhedral approximation: outer linearization (also called the cutting plane approach) and inner linearization (also called the simplicial decomposition approach). As the name suggests, outer linearization approximates epi $(f)$ and $X$ from without, $F_k(x) \leq f(x)$ for all $x$, and $X_k \supset X$, using intersections of finite numbers of halfspaces. By contrast, inner linearization approximates epi $(f)$ and $X$ from within, $F_k(x) \geq f(x)$ for all $x$, and $X_k \subset X$, using convex hulls of finite numbers of halflines or points. Figure 2.2.1 illustrates outer and inner linearization of convex sets and functions.

We will show in Sections 4.3 and 4.4 that these two approaches are intimately connected by conjugacy and duality: the dual of an outer approximating problem is an inner approximating problem involving the conjugates of $F_k$ and the indicator function of $X_k$, and reversely. In fact, using this duality, outer and inner approximations may be combined in the same algorithm.

数学代写|凸优化代写Convex Optimization代考|2.2.2 Penalty, Augmented Lagrangian, and Interior Point Methods

Generally in optimization problems, the presence of constraints complicates the algorithmic solution, and limits the range of available algorithms. For this reason it is natural to try to eliminate constraints by using approximation of the corresponding indicator functions. In particular, we may replace constraints by penalty functions that prescribe a high cost for their violation. We discussed in Section 1.5 such an approximation scheme, which uses exact nondifferentiable penalty functions. In this section we focus on differentiable penalty functions that are not necessarily exact.

To illustrate this approach, let us consider the equality constrained problem
$$
\begin{array}{ll}
\operatorname{minimize} & f(x) \
\text { subject to } & x \in X, \quad a_i^{\prime} x=b_i, \quad i=1, \ldots, m .
\end{array}
$$
We replace this problem with a penalized version
$$
\begin{aligned}
& \operatorname{minimize} f(x)+c_k \sum_{i=1}^m P\left(a_i^{\prime} x-b_i\right) \
& \text { subject to } x \in X,
\end{aligned}
$$
where $P(\cdot)$ is a scalar penalty function satisfying
$$
P(u)=0 \quad \text { if } \quad u=0,
$$
and
$$
P(u)>0 \quad \text { if } u \neq 0 .
$$
The scalar $c_k$ is a positive penalty parameter, so by increasing $c_k$ to $\infty$, the solution $x_k$ of the penalized problem tends to decrease the constraint violation, thereby providing an increasingly accurate approximation to the original problem. An important practical point here is that $c_k$ should be increased gradually, using the optimal solution of each approximating problem to start the algorithm that solves the next approximating problem. Otherwise serious numerical problems occur due to “ill-conditioning.”
A common choice for $P$ is the quadratic penalty function
$$
P(u)=\frac{1}{2} u^2
$$
in which case the penalized problem (2.51) takes the form
$$
\begin{array}{ll}
\operatorname{minimize} & f(x)+\frac{c_k}{2}|A x-b|^2 \
\text { subject to } & x \in X,
\end{array}
$$
where $A x=b$ is a vector representation of the system of equations $a_i^{\prime} x=b_i$, $i=1, \ldots, m$

数学代写|凸优化代写Convex Optimization代考|APPROXIMATION METHODS

凸优化代写

数学代写|凸优化代写Convex Optimization代考|APPROXIMATION METHODS

在凸集$X$上最小化凸函数$f: \Re^n \mapsto \Re$的近似方法,是基于在每次迭代$k$时分别用近似$F_k$和$X_k$替换$f$和$X$,并找到
$$
x_{k+1} \in \arg \min {x \in X_k} F_k(x) . $$在下一次迭代中,$F{k+1}$和$X_{k+1}$是基于新的点$x_{k+1}$,也可能基于之前的点$x_k, \ldots, x_0$,通过改进近似生成的。当然,这种方法只有在近似问题比原始问题更简单的情况下才有意义。有各种各样的近似方法,目的不同,适用于不同的情况。本节提供了一个简要的概述和方向,而第4-6章提供了详细的分析。
2.2.1多面体近似
在多面体近似方法中,$F_k$是近似$f$的多面体函数,$X_k$是近似$X$的多面体集合。其思想是,近似问题是多面体的,所以它可能比原始问题更容易解决。该方法包括逐步改进近似的机制,从而在极限中获得原始问题的解。在某些情况下,$f$和$X$中只有一个是多面体近似的。

在第4章中,我们将讨论多面体逼近的两种主要方法:外线性化(也称为切割平面方法)和内线性化(也称为单纯分解方法)。顾名思义,外部线性化近似于epi $(f)$ 和 $X$ 从外面, $F_k(x) \leq f(x)$ 对所有人 $x$,和 $X_k \supset X$,使用有限数量的半空间的交叉点。相比之下,内线性化近似于epi $(f)$ 和 $X$ 从内部来说, $F_k(x) \geq f(x)$ 对所有人 $x$,和 $X_k \subset X$,使用有限数量的半线或点的凸包。图2.2.1说明了凸集和凸函数的外部和内部线性化。

我们将在第4.3节和4.4节中说明,这两种方法通过共轭性和对偶性紧密相连:外部近似问题的对偶是涉及$F_k$和$X_k$的指示函数共轭的内部近似问题,反之亦然。事实上,利用这种对偶性,外部近似和内部近似可以结合在同一个算法中。

数学代写|凸优化代写Convex Optimization代考|Penalty, Augmented Lagrangian, and Interior Point Methods

通常在优化问题中,约束的存在使算法求解复杂化,并限制了可用算法的范围。由于这个原因,很自然地要尝试通过使用相应指标函数的近似来消除约束。特别是,我们可以用惩罚函数代替约束,惩罚函数规定违反约束的代价很高。我们在第1.5节讨论了这种近似方案,它使用精确不可微惩罚函数。在本节中,我们关注不一定精确的可微惩罚函数。

为了说明这种方法,让我们考虑等式约束问题
$$
\begin{array}{ll}
\operatorname{minimize} & f(x) \
\text { subject to } & x \in X, \quad a_i^{\prime} x=b_i, \quad i=1, \ldots, m .
\end{array}
$$
我们用一个惩罚的版本来代替这个问题
$$
\begin{aligned}
& \operatorname{minimize} f(x)+c_k \sum_{i=1}^m P\left(a_i^{\prime} x-b_i\right) \
& \text { subject to } x \in X,
\end{aligned}
$$
哪里$P(\cdot)$标量罚函数满足
$$
P(u)=0 \quad \text { if } \quad u=0,
$$

$$
P(u)>0 \quad \text { if } u \neq 0 .
$$
标量$c_k$是一个正惩罚参数,因此通过将$c_k$增加到$\infty$,惩罚问题的解$x_k$倾向于减少约束违反,从而提供对原始问题越来越精确的近似。这里一个重要的实际要点是$c_k$应该逐渐增加,使用每个近似问题的最优解开始求解下一个近似问题的算法。否则就会出现严重的数值问题。
对于$P$,常见的选择是二次惩罚函数
$$
P(u)=\frac{1}{2} u^2
$$
在这种情况下,被罚的问题(2.51)的形式是
$$
\begin{array}{ll}
\operatorname{minimize} & f(x)+\frac{c_k}{2}|A x-b|^2 \
\text { subject to } & x \in X,
\end{array}
$$
其中$A x=b$是方程组$a_i^{\prime} x=b_i$的矢量表示, $i=1, \ldots, m$

数学代写|凸优化代写Convex Optimization代考

数学代写|凸优化代写Convex Optimization代考 请认准UprivateTA™. UprivateTA™为您的留学生涯保驾护航。

微观经济学代写

微观经济学是主流经济学的一个分支,研究个人和企业在做出有关稀缺资源分配的决策时的行为以及这些个人和企业之间的相互作用。my-assignmentexpert™ 为您的留学生涯保驾护航 在数学Mathematics作业代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在图论代写Graph Theory代写方面经验极为丰富,各种图论代写Graph Theory相关的作业也就用不着 说。

线性代数代写

线性代数是数学的一个分支,涉及线性方程,如:线性图,如:以及它们在向量空间和通过矩阵的表示。线性代数是几乎所有数学领域的核心。

博弈论代写

现代博弈论始于约翰-冯-诺伊曼(John von Neumann)提出的两人零和博弈中的混合策略均衡的观点及其证明。冯-诺依曼的原始证明使用了关于连续映射到紧凑凸集的布劳威尔定点定理,这成为博弈论和数学经济学的标准方法。在他的论文之后,1944年,他与奥斯卡-莫根斯特恩(Oskar Morgenstern)共同撰写了《游戏和经济行为理论》一书,该书考虑了几个参与者的合作游戏。这本书的第二版提供了预期效用的公理理论,使数理统计学家和经济学家能够处理不确定性下的决策。

微积分代写

微积分,最初被称为无穷小微积分或 “无穷小的微积分”,是对连续变化的数学研究,就像几何学是对形状的研究,而代数是对算术运算的概括研究一样。

它有两个主要分支,微分和积分;微分涉及瞬时变化率和曲线的斜率,而积分涉及数量的累积,以及曲线下或曲线之间的面积。这两个分支通过微积分的基本定理相互联系,它们利用了无限序列和无限级数收敛到一个明确定义的极限的基本概念 。

计量经济学代写

什么是计量经济学?
计量经济学是统计学和数学模型的定量应用,使用数据来发展理论或测试经济学中的现有假设,并根据历史数据预测未来趋势。它对现实世界的数据进行统计试验,然后将结果与被测试的理论进行比较和对比。

根据你是对测试现有理论感兴趣,还是对利用现有数据在这些观察的基础上提出新的假设感兴趣,计量经济学可以细分为两大类:理论和应用。那些经常从事这种实践的人通常被称为计量经济学家。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

Posted on Categories:Convex optimization, 凸优化, 数学代写

数学代写|凸优化代写Convex Optimization代考|Aggregated Gradient Methods

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP-hard。

凸优化Convex optimization是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类别的凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP困难的。凸优化在许多学科中都有应用,如自动控制系统、估计和信号处理、通信和网络、电子电路设计、数据分析和建模、金融、统计(最佳实验设计)、和结构优化,其中近似概念被证明是有效的。

凸优化Convex optimization代写,免费提交作业要求, 满意后付款,成绩80\%以下全额退款,安全省心无顾虑。专业硕 博写手团队,所有订单可靠准时,保证 100% 原创。 最高质量的凸优化Convex optimization作业代写,服务覆盖北美、欧洲、澳洲等 国家。 在代写价格方面,考虑到同学们的经济条件,在保障代写质量的前提下,我们为客户提供最合理的价格。 由于作业种类很多,同时其中的大部分作业在字数上都没有具体要求,因此凸优化Convex optimization作业代写的价格不固定。通常在专家查看完作业要求之后会给出报价。作业难度和截止日期对价格也有很大的影响。

avatest™帮您通过考试

avatest™的各个学科专家已帮了学生顺利通过达上千场考试。我们保证您快速准时完成各时长和类型的考试,包括in class、take home、online、proctor。写手整理各样的资源来或按照您学校的资料教您,创造模拟试题,提供所有的问题例子,以保证您在真实考试中取得的通过率是85%以上。如果您有即将到来的每周、季考、期中或期末考试,我们都能帮助您!

在不断发展的过程中,avatest™如今已经成长为论文代写,留学生作业代写服务行业的翘楚和国际领先的教育集团。全体成员以诚信为圆心,以专业为半径,以贴心的服务时刻陪伴着您, 用专业的力量帮助国外学子取得学业上的成功。

•最快12小时交付 

•200+ 英语母语导师 

•70分以下全额退款

想知道您作业确定的价格吗? 免费下单以相关学科的专家能了解具体的要求之后在1-3个小时就提出价格。专家的 报价比上列的价格能便宜好几倍。

我们在数学Mathematics代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在凸优化Convex optimization代写方面经验极为丰富,各种凸优化Convex optimization相关的作业也就用不着 说。

数学代写|凸优化代写Convex Optimization代考|Aggregated Gradient Methods

数学代写|凸优化代写Convex Optimization代考|Aggregated Gradient Methods

Another variant of incremental gradient is the incremental aggregated gradient method, which has the form
$$
x_{k+1}=P_X\left(x_k-\alpha_k \sum_{\ell=0}^{m-1} \nabla f_{i_{k-\ell}}\left(x_{k-\ell}\right)\right),
$$
where $f_{i_k}$ is the new component function selected for iteration $k$. Here, the component indexes $i_k$ may either be selected in a cyclic order $\left[i_k=\right.$ $(k$ modulo $m)+1]$, or according to some randomization scheme, consistently with Eq. (2.31). Also for $k<m$, the summation should go up to $\ell=k$, and $\alpha$ should be replaced by a corresponding larger value, such as $\alpha_k=m \alpha /(k+1)$. This method, first proposed in [BHG08], computes the gradient incrementally, one component per iteration, but in place of the single component gradient, it uses an approximation to the total cost gradient $\nabla f\left(x_k\right)$, which is the sum of the component gradients computed in the past $m$ iterations.

There is analytical and experimental evidence that by aggregating the component gradients one may be able to attain a faster asymptotic convergence rate, by ameliorating the effect of approximating the full gradient with component gradients; see the original paper [BHG08], which provides an analysis for quadratic problems, the paper [SLB13], which provides a more general convergence and convergence rate analysis, and extensive computational results, and the papers [Mai13], [Mai14], [DCD14], which describe related methods. The expectation of faster convergence should be tempered, however, because in order for the effect of aggregating the component gradients to fully manifest itself, at least one pass (and possibly quite a few more) through the components must be made, which may be too long if $m$ is very large.

数学代写|凸优化代写Convex Optimization代考|Incremental Gradient Method with Momentum

There is an incremental version of the gradient method with momentum or heavy ball method, discussed in Section 2.1.1 [cf. Eq. (2.12)]. It is given by
$$
x_{k+1}=x_k-\alpha_k \nabla f_{i_k}\left(x_k\right)+\beta_k\left(x_k-x_{k-1}\right),
$$
where $f_{i_k}$ is the component function selected for iteration $k, \beta_k$ is a scalar in $[0,1)$, and we define $x_{-1}=x_0$; see e.g., [MaS94], [Tse98]. As noted earlier, special nonincremental methods with similarities to the one above have optimal iteration complexity properties under certain conditions; cf. Section 6.2. However, there have been no proposals of incremental versions of these optimal complexity methods.

The heavy ball method $(2.36)$ is related with the aggregated gradient method $(2.35)$ when $\beta_k \approx 1$. In particular, when $\alpha_k \equiv \alpha$ and $\beta_k \equiv \beta$, the sequence generated by Eq. (2.36) satisfies
$$
x_{k+1}=x_k-\alpha \sum_{\ell=0}^k \beta^{\ell} \nabla f_{i_{k-\ell}}\left(x_{k-\ell}\right)
$$

[both iterations (2.35) and (2.37) involve different types of diminishing dependence on past gradient components]. Thus, the heavy ball iteration (2.36) provides an approximate implementation of the incremental aggregated gradient method (2.35), while it does not have the memory storage issue of the latter.

A further way to intertwine the ideas of the aggregated gradient method (2.35) and the heavy ball method (2.36) for the unconstrained case $\left(X=\Re^n\right)$ is to form an infinite sequence of components
$$
f_1, f_2, \ldots, f_m, f_1, f_2, \ldots, f_m, f_1, f_2, \ldots,
$$
and group together blocks of successive components into batches. One way to implement this idea is to add $p$ preceding gradients (with $1<p<m$ ) to the current component gradient in iteration (2.36), thus iterating according to
$$
x_{k+1}=x_k-\alpha_k \sum_{\ell=0}^p \nabla f_{i_{k-\ell}}\left(x_{k-\ell}\right)+\beta_k\left(x_k-x_{k-1}\right)
$$

数学代写|凸优化代写Convex Optimization代考|Aggregated Gradient Methods

凸优化代写

数学代写|凸优化代写Convex Optimization代考|Aggregated Gradient Methods

增量梯度法的另一种变体是增量聚合梯度法,其形式为
$$
x_{k+1}=P_X\left(x_k-\alpha_k \sum_{\ell=0}^{m-1} \nabla f_{i_{k-\ell}}\left(x_{k-\ell}\right)\right),
$$
其中$f_{i_k}$是为迭代选择的新组件函数$k$。在这里,成分指标$i_k$可以按照循环顺序$\left[i_k=\right.$$(k$模$m)+1]$选择,也可以按照某种随机化方案选择,与Eq.(2.31)一致。同样,对于$k<m$,总和应该达到$\ell=k$,并且$\alpha$应该被相应的更大的值替换,例如$\alpha_k=m \alpha /(k+1)$。该方法在[BHG08]中首次提出,增量计算梯度,每次迭代一个分量,但代替单分量梯度,它使用对总代价梯度$\nabla f\left(x_k\right)$的近似,这是在过去$m$迭代中计算的分量梯度的总和。

有分析和实验证据表明,通过聚合分量梯度,可以改善用分量梯度近似全梯度的效果,从而获得更快的渐近收敛速度;参见原始论文[BHG08]对二次问题进行了分析,论文[SLB13]提供了更一般的收敛性和收敛速率分析,以及广泛的计算结果,论文[Mai13], [Mai14], [DCD14]描述了相关方法。但是,应该缓和对更快收敛的期望,因为为了使聚合组件梯度的效果完全显示出来,必须通过组件进行至少一次传递(可能更多),如果$m$非常大,则可能太长。

数学代写|凸优化代写Convex Optimization代考|Incremental Gradient Method with Momentum

有一种带动量的梯度法或重球法的增量版本,在2.1.1节中讨论[参见公式(2.12)]。它是由
$$
x_{k+1}=x_k-\alpha_k \nabla f_{i_k}\left(x_k\right)+\beta_k\left(x_k-x_{k-1}\right),
$$
其中$f_{i_k}$为迭代选择的组件函数$k, \beta_k$为$[0,1)$中的标量,我们定义$x_{-1}=x_0$;参见[MaS94], [Tse98]。如前所述,与上述方法相似的特殊非增量方法在一定条件下具有最优的迭代复杂度特性;参见第6.2节。然而,这些最优复杂度方法的增量版本还没有被提出。

重球法$(2.36)$与聚集梯度法$(2.35)$在$\beta_k \approx 1$。特别是当$\alpha_k \equiv \alpha$和$\beta_k \equiv \beta$时,由式(2.36)生成的序列满足
$$
x_{k+1}=x_k-\alpha \sum_{\ell=0}^k \beta^{\ell} \nabla f_{i_{k-\ell}}\left(x_{k-\ell}\right)
$$

[两个迭代(2.35)和(2.37)都涉及不同类型的对过去梯度分量的递减依赖]。因此,重球迭代(2.36)提供了增量聚合梯度方法(2.35)的近似实现,而不存在后者的内存存储问题。

对于无约束情况$\left(X=\Re^n\right)$,将聚合梯度法(2.35)和重球法(2.36)的思想交织在一起的另一种方法是形成一个无限的分量序列
$$
f_1, f_2, \ldots, f_m, f_1, f_2, \ldots, f_m, f_1, f_2, \ldots,
$$
并将连续的组件块分组成批。实现此想法的一种方法是在迭代(2.36)中将$p$前面的梯度(使用$1<p<m$)添加到当前组件梯度中,从而根据
$$
x_{k+1}=x_k-\alpha_k \sum_{\ell=0}^p \nabla f_{i_{k-\ell}}\left(x_{k-\ell}\right)+\beta_k\left(x_k-x_{k-1}\right)
$$

数学代写|凸优化代写Convex Optimization代考

数学代写|凸优化代写Convex Optimization代考 请认准UprivateTA™. UprivateTA™为您的留学生涯保驾护航。

微观经济学代写

微观经济学是主流经济学的一个分支,研究个人和企业在做出有关稀缺资源分配的决策时的行为以及这些个人和企业之间的相互作用。my-assignmentexpert™ 为您的留学生涯保驾护航 在数学Mathematics作业代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在图论代写Graph Theory代写方面经验极为丰富,各种图论代写Graph Theory相关的作业也就用不着 说。

线性代数代写

线性代数是数学的一个分支,涉及线性方程,如:线性图,如:以及它们在向量空间和通过矩阵的表示。线性代数是几乎所有数学领域的核心。

博弈论代写

现代博弈论始于约翰-冯-诺伊曼(John von Neumann)提出的两人零和博弈中的混合策略均衡的观点及其证明。冯-诺依曼的原始证明使用了关于连续映射到紧凑凸集的布劳威尔定点定理,这成为博弈论和数学经济学的标准方法。在他的论文之后,1944年,他与奥斯卡-莫根斯特恩(Oskar Morgenstern)共同撰写了《游戏和经济行为理论》一书,该书考虑了几个参与者的合作游戏。这本书的第二版提供了预期效用的公理理论,使数理统计学家和经济学家能够处理不确定性下的决策。

微积分代写

微积分,最初被称为无穷小微积分或 “无穷小的微积分”,是对连续变化的数学研究,就像几何学是对形状的研究,而代数是对算术运算的概括研究一样。

它有两个主要分支,微分和积分;微分涉及瞬时变化率和曲线的斜率,而积分涉及数量的累积,以及曲线下或曲线之间的面积。这两个分支通过微积分的基本定理相互联系,它们利用了无限序列和无限级数收敛到一个明确定义的极限的基本概念 。

计量经济学代写

什么是计量经济学?
计量经济学是统计学和数学模型的定量应用,使用数据来发展理论或测试经济学中的现有假设,并根据历史数据预测未来趋势。它对现实世界的数据进行统计试验,然后将结果与被测试的理论进行比较和对比。

根据你是对测试现有理论感兴趣,还是对利用现有数据在这些观察的基础上提出新的假设感兴趣,计量经济学可以细分为两大类:理论和应用。那些经常从事这种实践的人通常被称为计量经济学家。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

Posted on Categories:Convex optimization, 凸优化, 数学代写

数学代写|凸优化代写Convex Optimization代考|Gradient Projection Method

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP-hard。

凸优化Convex optimization是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类别的凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP困难的。凸优化在许多学科中都有应用,如自动控制系统、估计和信号处理、通信和网络、电子电路设计、数据分析和建模、金融、统计(最佳实验设计)、和结构优化,其中近似概念被证明是有效的。

凸优化Convex optimization代写,免费提交作业要求, 满意后付款,成绩80\%以下全额退款,安全省心无顾虑。专业硕 博写手团队,所有订单可靠准时,保证 100% 原创。 最高质量的凸优化Convex optimization作业代写,服务覆盖北美、欧洲、澳洲等 国家。 在代写价格方面,考虑到同学们的经济条件,在保障代写质量的前提下,我们为客户提供最合理的价格。 由于作业种类很多,同时其中的大部分作业在字数上都没有具体要求,因此凸优化Convex optimization作业代写的价格不固定。通常在专家查看完作业要求之后会给出报价。作业难度和截止日期对价格也有很大的影响。

avatest™帮您通过考试

avatest™的各个学科专家已帮了学生顺利通过达上千场考试。我们保证您快速准时完成各时长和类型的考试,包括in class、take home、online、proctor。写手整理各样的资源来或按照您学校的资料教您,创造模拟试题,提供所有的问题例子,以保证您在真实考试中取得的通过率是85%以上。如果您有即将到来的每周、季考、期中或期末考试,我们都能帮助您!

在不断发展的过程中,avatest™如今已经成长为论文代写,留学生作业代写服务行业的翘楚和国际领先的教育集团。全体成员以诚信为圆心,以专业为半径,以贴心的服务时刻陪伴着您, 用专业的力量帮助国外学子取得学业上的成功。

•最快12小时交付 

•200+ 英语母语导师 

•70分以下全额退款

想知道您作业确定的价格吗? 免费下单以相关学科的专家能了解具体的要求之后在1-3个小时就提出价格。专家的 报价比上列的价格能便宜好几倍。

我们在数学Mathematics代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在凸优化Convex optimization代写方面经验极为丰富,各种凸优化Convex optimization相关的作业也就用不着 说。

数学代写|凸优化代写Convex Optimization代考|Gradient Projection Method

数学代写|凸优化代写Convex Optimization代考|Gradient Projection Method

Another major feasible direction method, which generally achieves a faster convergence rate than the conditional gradient method, is the gradient projection method (originally proposed in [Gol64], [LeP65]), which has the form
$$
x_{k+1}=P_X\left(x_k-\alpha_k \nabla f\left(x_k\right)\right),
$$
where $\alpha_k>0$ is a stepsize and $P_X(\cdot)$ denotes projection on $X$ (the projection is well defined since $X$ is closed and convex; see Fig. 2.1.6).

To get a sense of the validity of the method, note that from the Projection Theorem (Prop. 1.1.9 in Appendix B), we have
$$
\nabla f\left(x_k\right)^{\prime}\left(x_{k+1}-x_k\right) \leq 0,
$$
and by the optimality condition for convex functions (cf. Prop. 1,1.8 in Appendix B), the inequality is strict unless $x_k$ is optimal. Thus $x_{k+1}-x_k$ defines a feasible descent direction at $x_k$, and based on this fact, we can show the descent property $f\left(x_{k+1}\right)<f\left(x_k\right)$ when $\alpha_k$ is sufficiently small.
The stepsize $\alpha_k$ is chosen similar to the unconstrained gradient method, i.e., constant, diminishing, or through some kind of reduction rule to ensure cost function descent and guarantee convergence to the optimum; see the convergence analysis of Section 6.1, and [Ber99], Section 2.3, for a detailed discussion and references. Moreover the convergence rate estimates given earlier for unconstrained steepest descent in the positive definite quadratic cost case [cf. Eq. (2.8)] and in the singular case [cf. Eqs. (2.9) and (2.10)] generalize to the gradient projection method under various stepsize rules (see Exercise 2.1 for the former case and [Dun81] for the latter case).

数学代写|凸优化代写Convex Optimization代考|Two-Metric Projection Methods

Despite its simplicity, the gradient projection method has some significant drawbacks:
(a) Its rate of convergence is similar to the one of steepest descent, and is often slow. It is possible to overcome this potential drawback by a form of scaling. This can be accomplished with an iteration of the form
$$
x_{k+1} \in \arg \min {x \in X}\left{\nabla f\left(x_k\right)^{\prime}\left(x-x_k\right)+\frac{1}{2 \alpha_k}\left(x-x_k\right)^{\prime} H_k\left(x-x_k\right)\right}, $$ where $H_k$ is a positive definite symmetric matrix and $\alpha_k$ is a positive stepsize. When $H_k$ is the identity, it can be seen that this iteration gives the same iterate $x{k+1}$ as the unscaled gradient projection iteration (2.18). When $H_k=\nabla^2 f\left(x_k\right)$ and $\alpha_k=1$, we obtain a constrained form of Newton’s method (see nonlinear programming sources for analysis; e.g., [Ber99]).
(b) Depending on the nature of $X$, the projection operation may involve substantial overhead. The projection is simple when $H_k$ is the identity (or more generally, is diagonal), and $X$ consists of simple lower and/or upper bounds on the components of $x$ :
$$
X=\left{\left(x^1, \ldots, x^n\right) \mid \underline{b}^i \leq x^i \leq \bar{b}^i, i=1, \ldots, n\right} .
$$
This is an important special case where the use of gradient projection is convenient. Then the projection decomposes to $n$ scalar projections, one for each $i=1, \ldots, n$ : the $i$ th component of $x_{k+1}$ is obtained by projection of the $i$ th component of $x_k-\alpha_k \nabla f\left(x_k\right)$,
$$
\left(x_k-\alpha_k \nabla f\left(x_k\right)\right)^i,
$$
onto the interval of corresponding bounds $\left[\underline{b}^i, \bar{b}^i\right]$, and is very simple. However, for general nondiagonal scaling the overhead for solving the quadratic programming problem (2.19) is substantial even if $X$ has a simple bound structure of Eq. (2.20).

数学代写|凸优化代写Convex Optimization代考|Gradient Projection Method

凸优化代写

数学代写|凸优化代写Convex Optimization代考|Gradient Projection Method

另一种主要的可行方向方法是梯度投影法(最初在[Gol64], [LeP65]中提出),其收敛速度通常比条件梯度法更快,其形式为
$$
x_{k+1}=P_X\left(x_k-\alpha_k \nabla f\left(x_k\right)\right),
$$
其中$\alpha_k>0$是步长,$P_X(\cdot)$表示$X$上的投影(投影定义良好,因为$X$是闭合凸的;见图2.1.6)。

为了了解该方法的有效性,请注意从投影定理(附录B中的1.1.9 Prop.)中,我们有
$$
\nabla f\left(x_k\right)^{\prime}\left(x_{k+1}-x_k\right) \leq 0,
$$
并且根据凸函数的最优性条件(参见附录B中Prop. 1,1.8),不等式是严格的,除非$x_k$是最优的。因此$x_{k+1}-x_k$在$x_k$处定义了一个可行的下降方向,基于这个事实,我们可以在$\alpha_k$足够小的情况下给出$f\left(x_{k+1}\right)<f\left(x_k\right)$的下降特性。
步长$\alpha_k$的选择与无约束梯度法相似,即常数、递减或通过某种约简规则来保证代价函数下降并保证收敛到最优;参见6.1节的收敛分析和[Ber99] 2.3节的详细讨论和参考。此外,前面给出的在正定二次代价情况下无约束最陡下降的收敛速率估计[参见式(2.8)]和在奇异情况下[参见式(2.8)]。(2.9)和(2.10)]推广到不同步长规则下的梯度投影法(前一种情况见练习2.1,后一种情况见[Dun81])。

数学代写|凸优化代写Convex Optimization代考|Two-Metric Projection Methods

梯度投影法虽然简单,但也有一些明显的缺点:
(a)它的收敛速度与最陡下降的速度相似,而且往往很慢。有可能通过缩放的形式来克服这个潜在的缺点。这可以通过表单的迭代来完成
$$
x_{k+1} \in \arg \min {x \in X}\left{\nabla f\left(x_k\right)^{\prime}\left(x-x_k\right)+\frac{1}{2 \alpha_k}\left(x-x_k\right)^{\prime} H_k\left(x-x_k\right)\right}, $$其中$H_k$为正定对称矩阵,$\alpha_k$为正步长。当$H_k$为恒等时,可以看到该迭代与未缩放的梯度投影迭代(2.18)得到相同的迭代$x{k+1}$。当$H_k=\nabla^2 f\left(x_k\right)$和$\alpha_k=1$时,我们得到牛顿方法的约束形式(参见非线性规划源进行分析;例:[99])。
(b)视$X$的性质而定,投影业务可能涉及大量间接费用。当$H_k$是恒等式(或者更一般地说,是对角线)时,投影是简单的,并且$X$由$x$的组件的简单下界和/或上界组成:
$$
X=\left{\left(x^1, \ldots, x^n\right) \mid \underline{b}^i \leq x^i \leq \bar{b}^i, i=1, \ldots, n\right} .
$$
这是一个重要的特殊情况,使用梯度投影是方便的。然后投影分解为$n$标量投影,每个$i=1, \ldots, n$一个:通过投影$x_k-\alpha_k \nabla f\left(x_k\right)$的$i$个分量得到$x_{k+1}$的$i$个分量;
$$
\left(x_k-\alpha_k \nabla f\left(x_k\right)\right)^i,
$$
到相应的区间上$\left[\underline{b}^i, \bar{b}^i\right]$,而且很简单。然而,对于一般的非对角缩放,即使$X$具有Eq.(2.20)的简单界结构,解决二次规划问题(2.19)的开销也是巨大的。

数学代写|凸优化代写Convex Optimization代考

数学代写|凸优化代写Convex Optimization代考 请认准UprivateTA™. UprivateTA™为您的留学生涯保驾护航。

微观经济学代写

微观经济学是主流经济学的一个分支,研究个人和企业在做出有关稀缺资源分配的决策时的行为以及这些个人和企业之间的相互作用。my-assignmentexpert™ 为您的留学生涯保驾护航 在数学Mathematics作业代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在图论代写Graph Theory代写方面经验极为丰富,各种图论代写Graph Theory相关的作业也就用不着 说。

线性代数代写

线性代数是数学的一个分支,涉及线性方程,如:线性图,如:以及它们在向量空间和通过矩阵的表示。线性代数是几乎所有数学领域的核心。

博弈论代写

现代博弈论始于约翰-冯-诺伊曼(John von Neumann)提出的两人零和博弈中的混合策略均衡的观点及其证明。冯-诺依曼的原始证明使用了关于连续映射到紧凑凸集的布劳威尔定点定理,这成为博弈论和数学经济学的标准方法。在他的论文之后,1944年,他与奥斯卡-莫根斯特恩(Oskar Morgenstern)共同撰写了《游戏和经济行为理论》一书,该书考虑了几个参与者的合作游戏。这本书的第二版提供了预期效用的公理理论,使数理统计学家和经济学家能够处理不确定性下的决策。

微积分代写

微积分,最初被称为无穷小微积分或 “无穷小的微积分”,是对连续变化的数学研究,就像几何学是对形状的研究,而代数是对算术运算的概括研究一样。

它有两个主要分支,微分和积分;微分涉及瞬时变化率和曲线的斜率,而积分涉及数量的累积,以及曲线下或曲线之间的面积。这两个分支通过微积分的基本定理相互联系,它们利用了无限序列和无限级数收敛到一个明确定义的极限的基本概念 。

计量经济学代写

什么是计量经济学?
计量经济学是统计学和数学模型的定量应用,使用数据来发展理论或测试经济学中的现有假设,并根据历史数据预测未来趋势。它对现实世界的数据进行统计试验,然后将结果与被测试的理论进行比较和对比。

根据你是对测试现有理论感兴趣,还是对利用现有数据在这些观察的基础上提出新的假设感兴趣,计量经济学可以细分为两大类:理论和应用。那些经常从事这种实践的人通常被称为计量经济学家。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

Posted on Categories:Convex optimization, 凸优化, 数学代写

数学代写|凸优化代写Convex Optimization代考|Gradient Methods for Differentiable Unconstrained Minimization

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP-hard。

凸优化Convex optimization是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类别的凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP困难的。凸优化在许多学科中都有应用,如自动控制系统、估计和信号处理、通信和网络、电子电路设计、数据分析和建模、金融、统计(最佳实验设计)、和结构优化,其中近似概念被证明是有效的。

凸优化Convex optimization代写,免费提交作业要求, 满意后付款,成绩80\%以下全额退款,安全省心无顾虑。专业硕 博写手团队,所有订单可靠准时,保证 100% 原创。 最高质量的凸优化Convex optimization作业代写,服务覆盖北美、欧洲、澳洲等 国家。 在代写价格方面,考虑到同学们的经济条件,在保障代写质量的前提下,我们为客户提供最合理的价格。 由于作业种类很多,同时其中的大部分作业在字数上都没有具体要求,因此凸优化Convex optimization作业代写的价格不固定。通常在专家查看完作业要求之后会给出报价。作业难度和截止日期对价格也有很大的影响。

avatest™帮您通过考试

avatest™的各个学科专家已帮了学生顺利通过达上千场考试。我们保证您快速准时完成各时长和类型的考试,包括in class、take home、online、proctor。写手整理各样的资源来或按照您学校的资料教您,创造模拟试题,提供所有的问题例子,以保证您在真实考试中取得的通过率是85%以上。如果您有即将到来的每周、季考、期中或期末考试,我们都能帮助您!

在不断发展的过程中,avatest™如今已经成长为论文代写,留学生作业代写服务行业的翘楚和国际领先的教育集团。全体成员以诚信为圆心,以专业为半径,以贴心的服务时刻陪伴着您, 用专业的力量帮助国外学子取得学业上的成功。

•最快12小时交付 

•200+ 英语母语导师 

•70分以下全额退款

想知道您作业确定的价格吗? 免费下单以相关学科的专家能了解具体的要求之后在1-3个小时就提出价格。专家的 报价比上列的价格能便宜好几倍。

我们在数学Mathematics代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在凸优化Convex optimization代写方面经验极为丰富,各种凸优化Convex optimization相关的作业也就用不着 说。

数学代写|凸优化代写Convex Optimization代考|Gradient Methods for Differentiable Unconstrained Minimization

数学代写|凸优化代写Convex Optimization代考|Gradient Methods for Differentiable Unconstrained Minimization

For the case where $f$ is differentiable and $X=\Re^n$, there are many popular descent algorithms of the form (2.6). An important example is the classical gradient method, where we use $d_k=-\nabla f\left(x_k\right)$ in Eq. (2.6):
$$
x_{k+1}=x_k-\alpha_k \nabla f\left(x_k\right)
$$
Since for differentiable $f$ we have
$$
f^{\prime}\left(x_k ; d\right)=\nabla f\left(x_k\right)^{\prime} d
$$
it follows that
$$
-\frac{\nabla f\left(x_k\right)}{\left|\nabla f\left(x_k\right)\right|}=\arg \min _{|d| \leq 1} f^{\prime}\left(x_k ; d\right)
$$
[assuming $\nabla f\left(x_k\right) \neq 0$ ]. Thus the gradient method is the descent algorithm of the form (2.6) that uses the direction that yields the greatest rate of cost improvement. For this reason it is also called the method of steepest descent.
Let us now discuss the convergence rate of the steepest descent method, assuming that $f$ is twice continuously differentiable. With proper stepsize choice, it can be shown that the method has a linear rate, assuming that it generates a sequence $\left{x_k\right}$ that converges to a vector $x^$ such that $\nabla f\left(x^\right)=0$ and $\nabla^2 f\left(x^\right)$ is positive definite. For example, if $\alpha_k$ is a sufficiently small constant $\alpha>0$, the corresponding iteration $$ x_{k+1}=x_k-\alpha \nabla f\left(x_k\right) $$ can be shown to be contractive within a sphere centered at $x^$, so it converges linearly.
To get a sense of this, assume for convenience that $f$ is quadratic, $\dagger$ so by adding a suitable constant to $f$, we have
$$
f(x)=\frac{1}{2}\left(x-x^\right)^{\prime} Q\left(x-x^\right), \quad \nabla f(x)=Q\left(x-x^*\right),
$$
where $Q$ is the positive definite symmetric Hessian of $f$. Then for a constant stepsize $\alpha$, the steepest descent iteration (2.7) can be written as
$$
x_{k+1}-x^=(I-\alpha Q)\left(x_k-x^\right) .
$$

数学代写|凸优化代写Convex Optimization代考|Scaling

To improve the convergence rate of the steepest descent method one may “scale” the gradient $\nabla f\left(x_k\right)$ by multiplication with a positive definite symmetric matrix $D_k$, i.e., use a direction $d_k=-D_k \nabla f\left(x_k\right)$, leading to the algorithm
$$
x_{k+1}=x_k-\alpha_k D_k \nabla f\left(x_k\right) ;
$$
cf. Fig. 2.1.1. Since for $\nabla f\left(x_k\right) \neq 0$ we have
$$
f^{\prime}\left(x_k ; d_k\right)=-\nabla f\left(x_k\right)^{\prime} D_k \nabla f\left(x_k\right)<0,
$$
it follows that we still have a cost descent method, as long as the positive stepsize $\alpha_k$ is sufficiently small so that $f\left(x_{k+1}\right)<f\left(x_k\right)$.
$$
d_k=-D_k \nabla f\left(x_k\right),
$$
where $D_k$ is a positive definite matrix, is a descent direction because $d_k^{\prime} \nabla f\left(x_k\right)=$ $-d_k^{\prime} D_k d_k<0$. In this case $d_k$ makes an angle less than $\pi / 2$ with $-\nabla f\left(x_k\right)$.
Scaling is a major concept in the algorithmic theory of nonlinear programming. It is motivated by the idea of modifying the “effective condition number” of the problem through a linear change of variables of the form $x=D_k^{1 / 2} y$. In particular, the iteration (2.11) may be viewed as a steepest descent iteration
$$
y_{k+1}=y_k-\alpha \nabla h_k\left(y_k\right)
$$
for the equivalent problem of minimizing the function $h_k(y)=f\left(D_k^{1 / 2} y\right)$. For a quadratic problem, where $f(x)=\frac{1}{2} x^{\prime} Q x-b^{\prime} x$, the condition number of $h_k$ is the ratio of largest to smallest eigenvalue of the matrix $D_k^{1 / 2} Q D_k^{1 / 2}$ (rather than $Q$ ).

数学代写|凸优化代写Convex Optimization代考|Linear-Conic Problems

凸优化代写

数学代写|凸优化代写Convex Optimization代考|Gradient Methods for Differentiable Unconstrained Minimization

对于$f$可微且$X=\Re^n$的情况,有许多流行的(2.6)形式的下降算法。一个重要的例子是经典的梯度法,我们在式(2.6)中使用$d_k=-\nabla f\left(x_k\right)$:
$$
x_{k+1}=x_k-\alpha_k \nabla f\left(x_k\right)
$$
因为对于可微$f$,我们有
$$
f^{\prime}\left(x_k ; d\right)=\nabla f\left(x_k\right)^{\prime} d
$$
由此得出
$$
-\frac{\nabla f\left(x_k\right)}{\left|\nabla f\left(x_k\right)\right|}=\arg \min {|d| \leq 1} f^{\prime}\left(x_k ; d\right) $$ [假设$\nabla f\left(x_k\right) \neq 0$]。因此,梯度方法是(2.6)式的下降算法,它使用产生最大成本改进率的方向。由于这个原因,它也被称为最陡下降法。 现在让我们讨论最陡下降法的收敛速度,假设$f$是两次连续可微的。通过适当的步长选择,可以证明该方法具有线性速率,假设它生成的序列$\left{x_k\right}$收敛于一个向量$x^$,使得$\nabla f\left(x^\right)=0$和$\nabla^2 f\left(x^\right)$是正定的。例如,如果$\alpha_k$是一个足够小的常数$\alpha>0$,则相应的迭代$$ x{k+1}=x_k-\alpha \nabla f\left(x_k\right) $$可以在以$x^$为中心的球体内被证明是收缩的,因此它是线性收敛的。
为了理解这一点,为了方便起见,假设$f$是二次元,$\dagger$所以通过给$f$加上一个合适的常数,我们有
$$
f(x)=\frac{1}{2}\left(x-x^\right)^{\prime} Q\left(x-x^\right), \quad \nabla f(x)=Q\left(x-x^*\right),
$$
其中$Q$为$f$的正定对称黑森量。当步长$\alpha$不变时,最陡下降迭代(2.7)为
$$
x_{k+1}-x^=(I-\alpha Q)\left(x_k-x^\right) .
$$

数学代写|凸优化代写Convex Optimization代考|Scaling

为了提高最陡下降法的收敛速度,可以通过与正定对称矩阵$D_k$的乘法来“缩放”梯度$\nabla f\left(x_k\right)$,即使用方向$d_k=-D_k \nabla f\left(x_k\right)$,导致算法
$$
x_{k+1}=x_k-\alpha_k D_k \nabla f\left(x_k\right) ;
$$
参见图2.1.1。因为对于$\nabla f\left(x_k\right) \neq 0$我们有
$$
f^{\prime}\left(x_k ; d_k\right)=-\nabla f\left(x_k\right)^{\prime} D_k \nabla f\left(x_k\right)<0,
$$
因此,我们仍然有一个成本下降的方法,只要正步长$\alpha_k$足够小,使得$f\left(x_{k+1}\right)<f\left(x_k\right)$。
$$
d_k=-D_k \nabla f\left(x_k\right),
$$
其中$D_k$为正定矩阵,为下降方向,因为$d_k^{\prime} \nabla f\left(x_k\right)=$$-d_k^{\prime} D_k d_k<0$。在这种情况下,$d_k$与$-\nabla f\left(x_k\right)$夹角小于$\pi / 2$。
尺度是非线性规划算法理论中的一个重要概念。它的动机是通过形式为$x=D_k^{1 / 2} y$的变量的线性变化来修改问题的“有效条件数”。特别是,迭代(2.11)可以看作是最陡下降迭代
$$
y_{k+1}=y_k-\alpha \nabla h_k\left(y_k\right)
$$
对于最小化函数的等价问题$h_k(y)=f\left(D_k^{1 / 2} y\right)$。对于二次问题,其中$f(x)=\frac{1}{2} x^{\prime} Q x-b^{\prime} x$, $h_k$的条件数是矩阵$D_k^{1 / 2} Q D_k^{1 / 2}$(而不是$Q$)的最大与最小特征值之比。

数学代写|凸优化代写Convex Optimization代考

数学代写|凸优化代写Convex Optimization代考 请认准UprivateTA™. UprivateTA™为您的留学生涯保驾护航。

微观经济学代写

微观经济学是主流经济学的一个分支,研究个人和企业在做出有关稀缺资源分配的决策时的行为以及这些个人和企业之间的相互作用。my-assignmentexpert™ 为您的留学生涯保驾护航 在数学Mathematics作业代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在图论代写Graph Theory代写方面经验极为丰富,各种图论代写Graph Theory相关的作业也就用不着 说。

线性代数代写

线性代数是数学的一个分支,涉及线性方程,如:线性图,如:以及它们在向量空间和通过矩阵的表示。线性代数是几乎所有数学领域的核心。

博弈论代写

现代博弈论始于约翰-冯-诺伊曼(John von Neumann)提出的两人零和博弈中的混合策略均衡的观点及其证明。冯-诺依曼的原始证明使用了关于连续映射到紧凑凸集的布劳威尔定点定理,这成为博弈论和数学经济学的标准方法。在他的论文之后,1944年,他与奥斯卡-莫根斯特恩(Oskar Morgenstern)共同撰写了《游戏和经济行为理论》一书,该书考虑了几个参与者的合作游戏。这本书的第二版提供了预期效用的公理理论,使数理统计学家和经济学家能够处理不确定性下的决策。

微积分代写

微积分,最初被称为无穷小微积分或 “无穷小的微积分”,是对连续变化的数学研究,就像几何学是对形状的研究,而代数是对算术运算的概括研究一样。

它有两个主要分支,微分和积分;微分涉及瞬时变化率和曲线的斜率,而积分涉及数量的累积,以及曲线下或曲线之间的面积。这两个分支通过微积分的基本定理相互联系,它们利用了无限序列和无限级数收敛到一个明确定义的极限的基本概念 。

计量经济学代写

什么是计量经济学?
计量经济学是统计学和数学模型的定量应用,使用数据来发展理论或测试经济学中的现有假设,并根据历史数据预测未来趋势。它对现实世界的数据进行统计试验,然后将结果与被测试的理论进行比较和对比。

根据你是对测试现有理论感兴趣,还是对利用现有数据在这些观察的基础上提出新的假设感兴趣,计量经济学可以细分为两大类:理论和应用。那些经常从事这种实践的人通常被称为计量经济学家。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

Posted on Categories:Convex optimization, 凸优化, 数学代写

数学代写|凸优化代写Convex Optimization代考|Linear-Conic Problems

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP-hard。

凸优化Convex optimization是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类别的凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP困难的。凸优化在许多学科中都有应用,如自动控制系统、估计和信号处理、通信和网络、电子电路设计、数据分析和建模、金融、统计(最佳实验设计)、和结构优化,其中近似概念被证明是有效的。

凸优化Convex optimization代写,免费提交作业要求, 满意后付款,成绩80\%以下全额退款,安全省心无顾虑。专业硕 博写手团队,所有订单可靠准时,保证 100% 原创。 最高质量的凸优化Convex optimization作业代写,服务覆盖北美、欧洲、澳洲等 国家。 在代写价格方面,考虑到同学们的经济条件,在保障代写质量的前提下,我们为客户提供最合理的价格。 由于作业种类很多,同时其中的大部分作业在字数上都没有具体要求,因此凸优化Convex optimization作业代写的价格不固定。通常在专家查看完作业要求之后会给出报价。作业难度和截止日期对价格也有很大的影响。

avatest™帮您通过考试

avatest™的各个学科专家已帮了学生顺利通过达上千场考试。我们保证您快速准时完成各时长和类型的考试,包括in class、take home、online、proctor。写手整理各样的资源来或按照您学校的资料教您,创造模拟试题,提供所有的问题例子,以保证您在真实考试中取得的通过率是85%以上。如果您有即将到来的每周、季考、期中或期末考试,我们都能帮助您!

在不断发展的过程中,avatest™如今已经成长为论文代写,留学生作业代写服务行业的翘楚和国际领先的教育集团。全体成员以诚信为圆心,以专业为半径,以贴心的服务时刻陪伴着您, 用专业的力量帮助国外学子取得学业上的成功。

•最快12小时交付 

•200+ 英语母语导师 

•70分以下全额退款

想知道您作业确定的价格吗? 免费下单以相关学科的专家能了解具体的要求之后在1-3个小时就提出价格。专家的 报价比上列的价格能便宜好几倍。

我们在数学Mathematics代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在凸优化Convex optimization代写方面经验极为丰富,各种凸优化Convex optimization相关的作业也就用不着 说。

数学代写|凸优化代写Convex Optimization代考|Linear-Conic Problems

数学代写|凸优化代写Convex Optimization代考|Linear-Conic Problems

An important special case of conic programming, called linear-conic problem, arises when $\operatorname{dom}(f)$ is an affine set and $f$ is linear over $\operatorname{dom}(f)$, i.e.,
$$
f(x)= \begin{cases}c^{\prime} x & \text { if } x \in b+S, \ \infty & \text { if } x \notin b+S\end{cases}
$$
where $b$ and $c$ are given vectors, and $S$ is a subspace. Then the primal problem can be written as
$$
\begin{aligned}
& \text { minimize } c^{\prime} x \
& \text { subject to } x-b \in S, \quad x \in C
\end{aligned}
$$
see Fig. 1.2.1.
To derive the dual problem, we note that
$$
\begin{aligned}
f^{\star}(\lambda) & =\sup {x-b \in S}(\lambda-c)^{\prime} x \ & =\sup {y \in S}(\lambda-c)^{\prime}(y+b) \
& = \begin{cases}(\lambda-c)^{\prime} b & \text { if } \lambda-c \in S^{\perp}, \
\infty & \text { if } \lambda-c \notin S^{\perp} .\end{cases}
\end{aligned}
$$
It can be seen that the dual problem $\min _{\lambda \in \dot{C}} f^*(\lambda)$ [cf. Eq. (1.18)], after discarding the superfluous term $c^{\prime} b$ from the cost, can be written as
$$
\begin{aligned}
& \operatorname{minimize} b^{\prime} \lambda \
& \text { subject to } \lambda-c \in S^{\perp}, \quad \lambda \in \hat{C},
\end{aligned}
$$
where $\hat{C}$ is the dual cone:
$$
\hat{C}=\left{\lambda \mid \lambda^{\prime} x \geq 0, \forall x \in C\right}
$$
By specializing the conditions of the Conic Duality Theorem (Prop. 1.2.2) to the linear-conic duality context, we obtain the following.

数学代写|凸优化代写Convex Optimization代考|Special Forms of Linear-Conic Problems

The primal and dual linear-conic problems (1.19) and (1.20) have been placed in an elegant symmetric form. There are also other useful formats that parallel and generalize similar formats in linear programming. For example, we have the following dual problem pairs:
$$
\begin{aligned}
& \min {A x=b, x \in C^{\prime} x} c^{\prime} x \Longleftrightarrow \max {c-A^{\prime} \lambda \in C} b^{\prime} \lambda, \
& \min {A x-b \in C} c^{\prime} x \Longleftrightarrow \max {A^{\prime} \lambda=c, \lambda \in C} b^{\prime} \lambda,
\end{aligned}
$$
where $A$ is an $m \times n$ matrix, and $x \in \Re^n, \lambda \in \Re^m, c \in \Re^n, b \in \Re^m$.
To verify the duality relation (1.21), let $\bar{x}$ be any vector such that $A \bar{x}=b$, and let us write the primal problem on the left in the primal conic form (1.19) as
$$
\begin{aligned}
& \text { minimize } c^{\prime} x \
& \text { subject to } x-\bar{x} \in \mathrm{N}(A), \quad x \in C,
\end{aligned}
$$
where $\mathrm{N}(A)$ is the nullspace of $A$. The corresponding dual conic problem (1.20) is to solve for $\mu$ the problem
$$
\begin{aligned}
& \text { minimize } \bar{x}^{\prime} \mu \
& \text { subject to } \mu-c \in \mathrm{N}(A)^{\perp}, \quad \mu \in C \text {. }
\end{aligned}
$$
Since $\mathrm{N}(A)^{\perp}$ is equal to $\mathrm{Ra}\left(A^{\prime}\right)$, the range of $A^{\prime}$, the constraints of problem (1.23) can be equivalently written as $c-\mu \epsilon-\operatorname{Ra}\left(A^{\prime}\right)=\operatorname{Ra}\left(A^{\prime}\right), \mu \in \hat{C}$, or
$$
c-\mu=A^{\prime} \lambda_{,} \quad \mu \in \tilde{C},
$$
for some $\lambda \in \Re^m$. Making the change of variables $\mu=c-A^{\prime} \lambda$, the dual problem (1.23) can be written as
$$
\begin{array}{ll}
\operatorname{minimize} & \bar{x}^{\prime}\left(c-A^{\prime} \lambda\right) \
\text { subject to } & c-A^{\prime} \lambda \in \hat{C} .
\end{array}
$$
By discarding the constant $\bar{x}^{\prime} c$ from the cost function, using the fact $A \bar{x}=$ $b$, and changing from minimization to maximization, we see that this dual problem is equivalent to the one in the right-hand side of the duality pair (1.21). The duality relation (1.22) is proved similarly.

We next discuss two important special cases of conic programming: second order cone programming and semidefinite programming. These problems involve two different special cones, and an explicit definition of the affine set constraint. They arise in a variety of applications, and their computational difficulty in practice tends to lie between that of linear and quadratic programming on one hand, and general convex programming on the other hand.

数学代写|凸优化代写Convex Optimization代考|Linear-Conic Problems

凸优化代写

数学代写|凸优化代写Convex Optimization代考|Linear-Conic Problems

二次规划的一个重要特例,称为线性-二次问题,当$\operatorname{dom}(f)$是仿射集且$f$对$\operatorname{dom}(f)$是线性的,即:
$$
f(x)= \begin{cases}c^{\prime} x & \text { if } x \in b+S, \ \infty & \text { if } x \notin b+S\end{cases}
$$
其中$b$和$c$是给定的向量,$S$是一个子空间。那么原始问题可以写成
$$
\begin{aligned}
& \text { minimize } c^{\prime} x \
& \text { subject to } x-b \in S, \quad x \in C
\end{aligned}
$$
见图1.2.1。
为了导出对偶问题,我们注意到
$$
\begin{aligned}
f^{\star}(\lambda) & =\sup {x-b \in S}(\lambda-c)^{\prime} x \ & =\sup {y \in S}(\lambda-c)^{\prime}(y+b) \
& = \begin{cases}(\lambda-c)^{\prime} b & \text { if } \lambda-c \in S^{\perp}, \
\infty & \text { if } \lambda-c \notin S^{\perp} .\end{cases}
\end{aligned}
$$
可以看出,对偶问题$\min _{\lambda \in \dot{C}} f^*(\lambda)$[参见式(1.18)],从成本中剔除多余项$c^{\prime} b$后,可以写成
$$
\begin{aligned}
& \operatorname{minimize} b^{\prime} \lambda \
& \text { subject to } \lambda-c \in S^{\perp}, \quad \lambda \in \hat{C},
\end{aligned}
$$
式中$\hat{C}$为双锥:
$$
\hat{C}=\left{\lambda \mid \lambda^{\prime} x \geq 0, \forall x \in C\right}
$$
通过将二次曲线对偶定理(Prop. 1.2.2)的条件专门化到线性-二次曲线对偶上下文中,我们得到如下结果。

数学代写|凸优化代写Convex Optimization代考|Special Forms of Linear-Conic Problems

原始的和对偶的线性-二次问题(1.19)和(1.20)已经被放置在一个优雅的对称形式。还有其他一些有用的格式,可以在线性规划中并行和推广类似的格式。例如,我们有以下对偶问题对:
$$
\begin{aligned}
& \min {A x=b, x \in C^{\prime} x} c^{\prime} x \Longleftrightarrow \max {c-A^{\prime} \lambda \in C} b^{\prime} \lambda, \
& \min {A x-b \in C} c^{\prime} x \Longleftrightarrow \max {A^{\prime} \lambda=c, \lambda \in C} b^{\prime} \lambda,
\end{aligned}
$$
其中$A$为$m \times n$矩阵,$x \in \Re^n, \lambda \in \Re^m, c \in \Re^n, b \in \Re^m$。
为了验证对偶关系(1.21),设$\bar{x}$为满足$A \bar{x}=b$的任意向量,并将左边的原始问题以原始二次形式(1.19)表示为
$$
\begin{aligned}
& \text { minimize } c^{\prime} x \
& \text { subject to } x-\bar{x} \in \mathrm{N}(A), \quad x \in C,
\end{aligned}
$$
其中$\mathrm{N}(A)$为$A$的零空间。对应的对偶二次问题(1.20)是求解为$\mu$的问题
$$
\begin{aligned}
& \text { minimize } \bar{x}^{\prime} \mu \
& \text { subject to } \mu-c \in \mathrm{N}(A)^{\perp}, \quad \mu \in C \text {. }
\end{aligned}
$$
因为$\mathrm{N}(A)^{\perp}$等于$\mathrm{Ra}\left(A^{\prime}\right)$, $A^{\prime}$的取值范围,所以问题(1.23)的约束可以等价地写成$c-\mu \epsilon-\operatorname{Ra}\left(A^{\prime}\right)=\operatorname{Ra}\left(A^{\prime}\right), \mu \in \hat{C}$,或
$$
c-\mu=A^{\prime} \lambda_{,} \quad \mu \in \tilde{C},
$$
对一些人来说$\lambda \in \Re^m$。变换变量$\mu=c-A^{\prime} \lambda$,对偶问题(1.23)可以写成
$$
\begin{array}{ll}
\operatorname{minimize} & \bar{x}^{\prime}\left(c-A^{\prime} \lambda\right) \
\text { subject to } & c-A^{\prime} \lambda \in \hat{C} .
\end{array}
$$
通过从成本函数中丢弃常数$\bar{x}^{\prime} c$,使用事实$A \bar{x}=$$b$,并将最小化改为最大化,我们看到这个对偶问题等同于对偶对右侧的问题(1.21)。对偶关系(1.22)也作了类似的证明。

接下来讨论了二次规划的两个重要特例:二阶锥规划和半定规划。这些问题涉及两个不同的特殊锥,以及仿射集约束的显式定义。它们有各种各样的应用,其实际计算难度往往介于线性规划和二次规划与一般凸规划之间。

数学代写|凸优化代写Convex Optimization代考

数学代写|凸优化代写Convex Optimization代考 请认准UprivateTA™. UprivateTA™为您的留学生涯保驾护航。

微观经济学代写

微观经济学是主流经济学的一个分支,研究个人和企业在做出有关稀缺资源分配的决策时的行为以及这些个人和企业之间的相互作用。my-assignmentexpert™ 为您的留学生涯保驾护航 在数学Mathematics作业代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在图论代写Graph Theory代写方面经验极为丰富,各种图论代写Graph Theory相关的作业也就用不着 说。

线性代数代写

线性代数是数学的一个分支,涉及线性方程,如:线性图,如:以及它们在向量空间和通过矩阵的表示。线性代数是几乎所有数学领域的核心。

博弈论代写

现代博弈论始于约翰-冯-诺伊曼(John von Neumann)提出的两人零和博弈中的混合策略均衡的观点及其证明。冯-诺依曼的原始证明使用了关于连续映射到紧凑凸集的布劳威尔定点定理,这成为博弈论和数学经济学的标准方法。在他的论文之后,1944年,他与奥斯卡-莫根斯特恩(Oskar Morgenstern)共同撰写了《游戏和经济行为理论》一书,该书考虑了几个参与者的合作游戏。这本书的第二版提供了预期效用的公理理论,使数理统计学家和经济学家能够处理不确定性下的决策。

微积分代写

微积分,最初被称为无穷小微积分或 “无穷小的微积分”,是对连续变化的数学研究,就像几何学是对形状的研究,而代数是对算术运算的概括研究一样。

它有两个主要分支,微分和积分;微分涉及瞬时变化率和曲线的斜率,而积分涉及数量的累积,以及曲线下或曲线之间的面积。这两个分支通过微积分的基本定理相互联系,它们利用了无限序列和无限级数收敛到一个明确定义的极限的基本概念 。

计量经济学代写

什么是计量经济学?
计量经济学是统计学和数学模型的定量应用,使用数据来发展理论或测试经济学中的现有假设,并根据历史数据预测未来趋势。它对现实世界的数据进行统计试验,然后将结果与被测试的理论进行比较和对比。

根据你是对测试现有理论感兴趣,还是对利用现有数据在这些观察的基础上提出新的假设感兴趣,计量经济学可以细分为两大类:理论和应用。那些经常从事这种实践的人通常被称为计量经济学家。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

Posted on Categories:Convex optimization, 凸优化, 数学代写

数学代写|凸优化代写Convex Optimization代考|LAGRANGE DUALITY

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP-hard。

凸优化Convex optimization是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类别的凸优化问题允许采用多项式时间算法,而数学优化一般来说是NP困难的。凸优化在许多学科中都有应用,如自动控制系统、估计和信号处理、通信和网络、电子电路设计、数据分析和建模、金融、统计(最佳实验设计)、和结构优化,其中近似概念被证明是有效的。

凸优化Convex optimization代写,免费提交作业要求, 满意后付款,成绩80\%以下全额退款,安全省心无顾虑。专业硕 博写手团队,所有订单可靠准时,保证 100% 原创。 最高质量的凸优化Convex optimization作业代写,服务覆盖北美、欧洲、澳洲等 国家。 在代写价格方面,考虑到同学们的经济条件,在保障代写质量的前提下,我们为客户提供最合理的价格。 由于作业种类很多,同时其中的大部分作业在字数上都没有具体要求,因此凸优化Convex optimization作业代写的价格不固定。通常在专家查看完作业要求之后会给出报价。作业难度和截止日期对价格也有很大的影响。

avatest™帮您通过考试

avatest™的各个学科专家已帮了学生顺利通过达上千场考试。我们保证您快速准时完成各时长和类型的考试,包括in class、take home、online、proctor。写手整理各样的资源来或按照您学校的资料教您,创造模拟试题,提供所有的问题例子,以保证您在真实考试中取得的通过率是85%以上。如果您有即将到来的每周、季考、期中或期末考试,我们都能帮助您!

在不断发展的过程中,avatest™如今已经成长为论文代写,留学生作业代写服务行业的翘楚和国际领先的教育集团。全体成员以诚信为圆心,以专业为半径,以贴心的服务时刻陪伴着您, 用专业的力量帮助国外学子取得学业上的成功。

•最快12小时交付 

•200+ 英语母语导师 

•70分以下全额退款

想知道您作业确定的价格吗? 免费下单以相关学科的专家能了解具体的要求之后在1-3个小时就提出价格。专家的 报价比上列的价格能便宜好几倍。

我们在数学Mathematics代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在凸优化Convex optimization代写方面经验极为丰富,各种凸优化Convex optimization相关的作业也就用不着 说。

数学代写|凸优化代写Convex Optimization代考|LAGRANGE DUALITY

数学代写|凸优化代写Convex Optimization代考|LAGRANGE DUALITY

We start our overview of Lagrange duality with the basic case of nonlinear inequality constraints, and then consider extensions involving linear inequality and equality constraints. Consider the problem $\neq$
$$
\begin{array}{ll}
\operatorname{minimize} & f(x) \
\text { subject to } & x \in X, \quad g(x) \leq 0,
\end{array}
$$
where $X$ is a nonempty set,
$$
g(x)=\left(g_1(x), \ldots, g_r(x)\right)^{\prime},
$$
and $f: X \mapsto \Re$ and $g_j: X \mapsto \Re, j=1, \ldots, r$, are given functions. We refer to this as the primal problem, and we denote its optimal value by $f^*$. A vector $x$ satisfying the constraints of the problem is referred to as feasible. The dual of problem (1.1) is given by
$$
\begin{array}{ll}
\operatorname{maximize} & q(\mu) \
\text { subject to } & \mu \in \Re^r,
\end{array}
$$

where the dual function $q$ is
$$
q(\mu)= \begin{cases}\inf _{x \in X} L(x, \mu) & \text { if } \mu \geq 0, \ -\infty & \text { otherwise, }\end{cases}
$$
and $L$ is the Lagrangian function defined by
$$
L(x, \mu)=f(x)+\mu^{\prime} g(x), \quad x \in X, \mu \in R^r ;
$$
(cf. Section 5.3 of Appendix B).

数学代写|凸优化代写Convex Optimization代考|Convex Programming with Inequality and Equality Constraints

Let us consider an extension of problem (1.1), with additional linear equality constraints. It is our principal constrained optimization model under convexity assumptions, and it will be referred to as the convex programming problem. It is given by
$$
\begin{array}{ll}
\operatorname{minimize} & f(x) \
\text { subject to } & x \in X, \quad g(x) \leq 0, \quad A x=b,
\end{array}
$$
where $X$ is a convex set, $g(x)=\left(g_1(x), \ldots, g_r(x)\right)^{\prime}, f: X \mapsto \Re$ and $g_j: X \mapsto \Re, j=1, \ldots, r$, are given convex functions, $A$ is an $m \times n$ matrix, and $b \in \Re m$.

The preceding duality framework may be applied to this problem by converting the constraint $A x=b$ to the equivalent set of linear inequality constraints
$$
A x \leq b, \quad-A x \leq-b,
$$
with corresponding dual variables $\lambda^{+} \geq 0$ and $\lambda^{-} \geq 0$. The Lagrangian function is
$$
f(x)+\mu^{\prime} g(x)+\left(\lambda^{+}-\lambda^{-}\right)^{\prime}(A x-b)
$$
and by introducing a dual variable
$$
\lambda=\lambda^{+}-\lambda^{-}
$$

with no sign restriction, it can be written as
$$
L(x, \mu, \lambda)=f(x)+\mu^{\prime} g(x)+\lambda^{\prime}(A x-b) .
$$
The dual problem is
$$
\begin{array}{ll}
\operatorname{maximize} & \inf _{x \in X} L(x, \mu, \lambda) \
\text { subject to } & \mu \geq 0, \lambda \in \Re^m .
\end{array}
$$

数学代写|凸优化代写Convex Optimization代考|LAGRANGE DUALITY

凸优化代写

数学代写|凸优化代写Convex Optimization代考|LAGRANGE DUALITY

我们从非线性不等式约束的基本情况开始概述拉格朗日对偶,然后考虑涉及线性不等式和平等约束的扩展。考虑这个问题$\neq$
$$
\begin{array}{ll}
\operatorname{minimize} & f(x) \
\text { subject to } & x \in X, \quad g(x) \leq 0,
\end{array}
$$
其中$X$是一个非空集合,
$$
g(x)=\left(g_1(x), \ldots, g_r(x)\right)^{\prime},
$$
$f: X \mapsto \Re$和$g_j: X \mapsto \Re, j=1, \ldots, r$是给定的函数。我们称其为原始问题,并用$f^*$表示其最优值。满足问题约束的向量$x$称为可行向量。(1.1)问题的对偶由
$$
\begin{array}{ll}
\operatorname{maximize} & q(\mu) \
\text { subject to } & \mu \in \Re^r,
\end{array}
$$

双重功能$q$在哪里
$$
q(\mu)= \begin{cases}\inf _{x \in X} L(x, \mu) & \text { if } \mu \geq 0, \ -\infty & \text { otherwise, }\end{cases}
$$
$L$为拉格朗日函数,定义为
$$
L(x, \mu)=f(x)+\mu^{\prime} g(x), \quad x \in X, \mu \in R^r ;
$$
(参见附录B第5.3节)。

数学代写|凸优化代写Convex Optimization代考|Convex Programming with Inequality and Equality Constraints

让我们考虑问题(1.1)的扩展,加上额外的线性等式约束。这是我们在凸性假设下的主要约束优化模型,我们将其称为凸规划问题。它是由
$$
\begin{array}{ll}
\operatorname{minimize} & f(x) \
\text { subject to } & x \in X, \quad g(x) \leq 0, \quad A x=b,
\end{array}
$$
其中$X$是凸集,$g(x)=\left(g_1(x), \ldots, g_r(x)\right)^{\prime}, f: X \mapsto \Re$和$g_j: X \mapsto \Re, j=1, \ldots, r$是给定的凸函数,$A$是$m \times n$矩阵,$b \in \Re m$。

前面的对偶框架可以通过将约束$A x=b$转换为等价的线性不等式约束集来应用于这个问题
$$
A x \leq b, \quad-A x \leq-b,
$$
对应的对偶变量$\lambda^{+} \geq 0$和$\lambda^{-} \geq 0$。拉格朗日函数是
$$
f(x)+\mu^{\prime} g(x)+\left(\lambda^{+}-\lambda^{-}\right)^{\prime}(A x-b)
$$
通过引入对偶变量
$$
\lambda=\lambda^{+}-\lambda^{-}
$$

在没有符号限制的情况下,可以写成
$$
L(x, \mu, \lambda)=f(x)+\mu^{\prime} g(x)+\lambda^{\prime}(A x-b) .
$$
对偶问题是
$$
\begin{array}{ll}
\operatorname{maximize} & \inf _{x \in X} L(x, \mu, \lambda) \
\text { subject to } & \mu \geq 0, \lambda \in \Re^m .
\end{array}
$$

数学代写|凸优化代写Convex Optimization代考

数学代写|凸优化代写Convex Optimization代考 请认准UprivateTA™. UprivateTA™为您的留学生涯保驾护航。

微观经济学代写

微观经济学是主流经济学的一个分支,研究个人和企业在做出有关稀缺资源分配的决策时的行为以及这些个人和企业之间的相互作用。my-assignmentexpert™ 为您的留学生涯保驾护航 在数学Mathematics作业代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在图论代写Graph Theory代写方面经验极为丰富,各种图论代写Graph Theory相关的作业也就用不着 说。

线性代数代写

线性代数是数学的一个分支,涉及线性方程,如:线性图,如:以及它们在向量空间和通过矩阵的表示。线性代数是几乎所有数学领域的核心。

博弈论代写

现代博弈论始于约翰-冯-诺伊曼(John von Neumann)提出的两人零和博弈中的混合策略均衡的观点及其证明。冯-诺依曼的原始证明使用了关于连续映射到紧凑凸集的布劳威尔定点定理,这成为博弈论和数学经济学的标准方法。在他的论文之后,1944年,他与奥斯卡-莫根斯特恩(Oskar Morgenstern)共同撰写了《游戏和经济行为理论》一书,该书考虑了几个参与者的合作游戏。这本书的第二版提供了预期效用的公理理论,使数理统计学家和经济学家能够处理不确定性下的决策。

微积分代写

微积分,最初被称为无穷小微积分或 “无穷小的微积分”,是对连续变化的数学研究,就像几何学是对形状的研究,而代数是对算术运算的概括研究一样。

它有两个主要分支,微分和积分;微分涉及瞬时变化率和曲线的斜率,而积分涉及数量的累积,以及曲线下或曲线之间的面积。这两个分支通过微积分的基本定理相互联系,它们利用了无限序列和无限级数收敛到一个明确定义的极限的基本概念 。

计量经济学代写

什么是计量经济学?
计量经济学是统计学和数学模型的定量应用,使用数据来发展理论或测试经济学中的现有假设,并根据历史数据预测未来趋势。它对现实世界的数据进行统计试验,然后将结果与被测试的理论进行比较和对比。

根据你是对测试现有理论感兴趣,还是对利用现有数据在这些观察的基础上提出新的假设感兴趣,计量经济学可以细分为两大类:理论和应用。那些经常从事这种实践的人通常被称为计量经济学家。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。