Posted on Categories:Convex optimization, 凸优化, 数学代写

数学代写|凸优化代写Convex Optimization代考|Continuity of Gradient and Directional Derivative

如果你也在 怎样代写凸优化Convex optimization 这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。凸优化Convex optimization由于在大规模资源分配、信号处理和机器学习等领域的广泛应用,人们对凸优化的兴趣越来越浓厚。本书旨在解决凸优化问题的算法的最新和可访问的发展。

凸优化Convex optimization无约束可以很容易地用梯度下降(最陡下降的特殊情况)或牛顿方法解决,结合线搜索适当的步长;这些可以在数学上证明收敛速度很快,尤其是后一种方法。如果目标函数是二次函数,也可以使用KKT矩阵技术求解具有线性等式约束的凸优化(它推广到牛顿方法的一种变化,即使初始化点不满足约束也有效),但通常也可以通过线性代数消除等式约束或解决对偶问题来解决。

凸优化Convex optimization代写,免费提交作业要求, 满意后付款,成绩80\%以下全额退款,安全省心无顾虑。专业硕 博写手团队,所有订单可靠准时,保证 100% 原创。 最高质量的凸优化Convex optimization作业代写,服务覆盖北美、欧洲、澳洲等 国家。 在代写价格方面,考虑到同学们的经济条件,在保障代写质量的前提下,我们为客户提供最合理的价格。 由于作业种类很多,同时其中的大部分作业在字数上都没有具体要求,因此凸优化Convex optimization作业代写的价格不固定。通常在专家查看完作业要求之后会给出报价。作业难度和截止日期对价格也有很大的影响。

avatest™帮您通过考试

avatest™的各个学科专家已帮了学生顺利通过达上千场考试。我们保证您快速准时完成各时长和类型的考试,包括in class、take home、online、proctor。写手整理各样的资源来或按照您学校的资料教您,创造模拟试题,提供所有的问题例子,以保证您在真实考试中取得的通过率是85%以上。如果您有即将到来的每周、季考、期中或期末考试,我们都能帮助您!

在不断发展的过程中,avatest™如今已经成长为论文代写,留学生作业代写服务行业的翘楚和国际领先的教育集团。全体成员以诚信为圆心,以专业为半径,以贴心的服务时刻陪伴着您, 用专业的力量帮助国外学子取得学业上的成功。

•最快12小时交付 

•200+ 英语母语导师 

•70分以下全额退款

想知道您作业确定的价格吗? 免费下单以相关学科的专家能了解具体的要求之后在1-3个小时就提出价格。专家的 报价比上列的价格能便宜好几倍。

我们在数学Mathematics代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的数学Mathematics代写服务。我们的专家在凸优化Convex optimization代写方面经验极为丰富,各种凸优化Convex optimization相关的作业也就用不着 说。

数学代写|凸优化代写Convex Optimization代考|Continuity of Gradient and Directional Derivative

数学代写|凸优化代写Convex Optimization代考|Continuity of Gradient and Directional Derivative

The following exercise provides a basic continuity property of directional derivatives and gradients of convex functions. Let $f: \Re^n \mapsto \Re$ be a convex function, and let $\left{f_k\right}$ be a sequence of convex functions $f_k: \Re^n \mapsto \Re$ with the property that $\lim {k \rightarrow \infty} f_k\left(x_k\right)=f(x)$ for every $x \in \Re^n$ and every sequence $\left{x_k\right}$ that converges to $x$. Show that for any $x \in \Re^n$ and $y \in \Re^n$, and any sequences $\left{x_k\right}$ and $\left{y_k\right}$ converging to $x$ and $y$, respectively, we have $$ \limsup {k \rightarrow \infty} f_k^{\prime}\left(x_k ; y_k\right) \leq f^{\prime}(x ; y)
$$
Furthermore, if $f$ is differentiable over $\Re^n$, then it is continuously differentiable over $\Re^n$. Solution: From the definition of directional derivative, it follows that for any $\epsilon>0$, there exists an $\alpha>0$ such that
$$
\frac{f(x+\alpha y)-f(x)}{\alpha}<f^{\prime}(x ; y)+\epsilon .
$$
Hence, using also the equation
$$
f^{\prime}(x ; y)=\inf {\alpha>0} \frac{f(x+\alpha y)-f(x)}{\alpha}, $$ we have for all sufficiently large $k$, $$ f_k^{\prime}\left(x_k ; y_k\right) \leq \frac{f_k\left(x_k+\alpha y_k\right)-f_k\left(x_k\right)}{\alpha}{k \rightarrow \infty} f_k^{\prime}\left(x_k ; y_k\right) \leq f^{\prime}(x ; y)+\epsilon .
$$

数学代写|凸优化代写Convex Optimization代考|Convergence of Subgradient Method with Diminishing Stepsize Under Weaker Conditions

This exercise shows an enhanced version of Prop. 3.2.6, whereby we assume that for some scalar $c$, we have
$$
c^2\left(1+\min {x^* \in X^}\left|x_k-x^\right|^2\right) \geq\left|g_k\right|^2, \quad \forall k
$$
in place of the stronger Assumption 3.2.1. Assume also that $X^$ is nonempty and that $$ \sum{k=0}^{\infty} \alpha_k=\infty, \quad \sum_{k=0}^{\infty} \alpha_k^2<\infty . $$ Show that $\left{x_k\right}$ converges to some optimal solution. Abbreviated proof: Similar to the proof of Prop. 3.2.6 [cf. Eq. (3.18)], we apply Prop. 3.2.2(a) with $y$ equal to any $x^ \in X^$, and then use the assumption (3.41) to obtain $$ \left|x_{k+1}-x^\right|^2 \leq\left(1+\alpha_k^2 c^2\right)\left|x_k-x^\right|^2-2 \alpha_k\left(f\left(x_k\right)-f^\right)+\alpha_k^2 c^2 .
$$
In view of the assumption (3.42), the convergence result of Prop. A.4.4 of Appendix A applies, and shows that $\left{x_k\right}$ is bounded and that $\liminf _{k \rightarrow \infty} f\left(x_k\right)=$ $f^*$. From this point the proof follows the one of Prop. 3.2.6.

数学代写|凸优化代写Convex Optimization代考|Continuity of Gradient and Directional Derivative

凸优化代写

数学代写|凸优化代写Convex Optimization代考|Continuity of Gradient and Directional Derivative

本练习的目的是用成本函数的方向导数来表达Prop. 3.1.4的最优性的充分必要条件。考虑一个凸函数$f: \Re^n \mapsto \Re$在一个凸集$X \subset \Re^n$上的最小化。对于任意$x \in X$,将$f$在$x$处的可行方向集定义为凸锥
$$
D(x)={\alpha(\bar{x}-x) \mid \bar{x} \in X, \alpha>0} .
$$
证明向量$x$使$f$ / $X$最小当且仅当$x \in X$和
$$
f^{\prime}(x ; d) \geq 0, \quad \forall d \in D(x) .
$$
注:换句话说,这个条件表示当且仅当$f$在$x$处没有可行的下降方向时,$x$是最优的。解决方案:让$\overline{D(x)}$表示$D(x)$的闭包。根据提案3.1.4,当且仅当存在$g \in \partial f(x)$时,$x$使$f$比$X$最小
$$
g^{\prime} d \geq 0, \quad \forall d \in D(x)
$$
它等价于
$$
g^{\prime} d \geq 0, \quad \forall d \in \overline{D(x)}
$$
因此,当且仅当$x$使$f$比$X$最小
$$
\max {g \in \partial f(x)} \min {|d| \leq 1, d \in \overline{D(x)}} g^{\prime} d \geq 0
$$

数学代写|凸优化代写Convex Optimization代考|Convergence of Subgradient Method with Diminishing Stepsize Under Weaker Conditions

在算法实践中出现的扩展实值凸函数通常是这样的形式
$$
f(x)= \begin{cases}h(x) & \text { if } x \in X, \ \infty & \text { if } x \notin X,\end{cases}
$$
其中$h: \Re^n \mapsto \Re$为实值凸函数,$X$为非空凸集。本练习的目的是表明,与$h$是扩展实值的情况相比,此类函数的子微分具有更有利的表征。
(a)使用第3.1.3和3.1.4节来证明该函数的子微分对于所有$x \in X$都是非空的,并且具有如下形式
$$
\partial f(x)=\partial h(x)+N_X(x), \quad \forall x \in X,
$$
其中$N_X(x)$是$X$和$x \in X$的正常锥体。注:如果$h$是凸实扩展值,则此公式需要假设$\operatorname{ri}(\operatorname{dom}(h)) \cap$$\operatorname{ri}(X) \neq \varnothing$或在$h$和$X$上的一些多面体条件;证明:通过子梯度不等式(3.1),我们有$g \in \partial f(x)$当且仅当$x$在$z \in X$上最小化$p(z)=h(z)-g^{\prime} z$,或者等价地,$p$在$x$上的某个子梯度[即,在$\partial h(x)-{g}$上的向量,由Prop. 3.1.3]属于$-N_X(x)$(参见Prop. 3.1.4)。
(b)设$f(x)=-\sqrt{x}$为$x \geq 0$, $f(x)=\infty$为$x<0$。验证$f$是一个封闭的凸函数,不能以(3.35)的形式编写,并且在$x=0$上没有子梯度。
(c)对于某些$h_i$和$X_i$,给出形式为(3.35)的函数$f_i$和的次微分公式:
$$
\partial\left(f_1+\cdots+f_m\right)(x)=\partial h_1(x)+\cdots+\partial h_m(x)+N_{X_1 \cap \cdots \cap X_m}(x),
$$
对于所有$x \in X_1 \cap \cdots \cap X_m$。举例说明,在这个公式中,我们不能用$N_{X_1}(x)+\cdots+N_{X_m}(x)$代替$N_{X_1 \cap \cdots \cap X_m}(x)$。证明:写$f_1+\cdots+f_m=h+\delta_X$,其中$h=h_1+\cdots+h_m$和$X=X_1 \cap \cdots \cap X_m$。作为反例,设$m=2$、$X_1$和$X_2$为平面上的单位球,中心分别为$(-1,0)$和$(1,0)$。

数学代写|凸优化代写Convex Optimization代考

数学代写|凸优化代写Convex Optimization代考 请认准UprivateTA™. UprivateTA™为您的留学生涯保驾护航。

Write a Reply or Comment

您的电子邮箱地址不会被公开。 必填项已用 * 标注