设f(x)在[a,b]上连续,且f″(x)>0,对任意的x1,x2∈[a,b]及0<λ<1,证明: f[λx1+(1-λ)x2]≤λf(x1)+(1-λ)f(x2).

admin2019-09-27  8

问题 设f(x)在[a,b]上连续,且f″(x)>0,对任意的x1,x2∈[a,b]及0<λ<1,证明:
f[λx1+(1-λ)x2]≤λf(x1)+(1-λ)f(x2).

选项

答案令x0=λx1+(1-λ)x2,则x0∈[a,b],由泰勒公式得 f(x)=f(x0)+f′(x0)(x-x0)+[*](x-x0)2,其中ξ介于x0与x之间, 因为f″(x)>0,所以f(x)≥f(x0)+f′(x0)(x-x0), 于是[*] 两式相加,得f[λx1+(1-λ)x2]≤λf(x1)+(1-λ)f(x2).

解析
转载请注明原文地址:https://kaotiyun.com/show/ZQS4777K
0

最新回复(0)