设f(x)在[a,b]上连续,且f’’(x)>0,对任意的x1,x2∈[a,b]及0<λ<1,证明: f[λx1+(1-λ)x2]≤λf(x1)+(1-λ)f(x2).

admin2018-01-23  27

问题 设f(x)在[a,b]上连续,且f’’(x)>0,对任意的x1,x2∈[a,b]及0<λ<1,证明:
f[λx1+(1-λ)x2]≤λf(x1)+(1-λ)f(x2).

选项

答案令x0=λx1+(1-λ)x2,则x0∈[a,b],由泰勒公式得 f(x)=f(x0)+f’(x0)(x-x0)+[*](x-x0)2,其中ξ介于x0与x之间, 因为f’’(x)>0,所以f(x)≥f(x0)+f’(x0)(x-x0), [*] 两式相加,得f[λx1+(1-λ)x2]≤λf(x1)+(1-λ)f(x2).

解析
转载请注明原文地址:https://kaotiyun.com/show/WkX4777K
0

相关试题推荐
最新回复(0)