Как лейбниц нашел производную

This article is about the integral rule. For the convergence test for alternating series, see Alternating series test.

In calculus, the Leibniz integral rule for differentiation under the integral sign states that for an integral of the form

{displaystyle int _{a(x)}^{b(x)}f(x,t),dt,}

where {displaystyle -infty <a(x),b(x)<infty } and the integrands are functions dependent on x, the derivative of this integral is expressible as

{displaystyle {frac {d}{dx}}left(int _{a(x)}^{b(x)}f(x,t),dtright)}

=f{big (}x,b(x){big )}cdot {frac {d}{dx}}b(x)-f{big (}x,a(x){big )}cdot {frac {d}{dx}}a(x)+int _{a(x)}^{b(x)}{frac {partial }{partial x}}f(x,t),dt
where the partial derivative {displaystyle {tfrac {partial }{partial x}}} indicates that inside the integral, only the variation of {displaystyle f(x,t)} with x is considered in taking the derivative.[1] It is named after Gottfried Leibniz.

In the special case where the functions a(x) and b(x) are constants {displaystyle a(x)=a} and {displaystyle b(x)=b} with values that do not depend on x, this simplifies to:

{displaystyle {frac {d}{dx}}left(int _{a}^{b}f(x,t),dtright)=int _{a}^{b}{frac {partial }{partial x}}f(x,t),dt.}

If {displaystyle a(x)=a} is constant and {displaystyle b(x)=x}, which is another common situation (for example, in the proof of Cauchy’s repeated integration formula), the Leibniz integral rule becomes:

{displaystyle {frac {d}{dx}}left(int _{a}^{x}f(x,t),dtright)=f{big (}x,x{big )}+int _{a}^{x}{frac {partial }{partial x}}f(x,t),dt,}

This important result may, under certain conditions, be used to interchange the integral and partial differential operators, and is particularly useful in the differentiation of integral transforms. An example of such is the moment generating function in probability theory, a variation of the Laplace transform, which can be differentiated to generate the moments of a random variable. Whether Leibniz’s integral rule applies is essentially a question about the interchange of limits.

General form: differentiation under the integral sign[edit]

The right hand side may also be written using Lagrange’s notation as:
{textstyle f(x,b(x)),b^{prime }(x)-f(x,a(x)),a^{prime }(x)+displaystyle int _{a(x)}^{b(x)}f_{x}(x,t),dt.}

Stronger versions of the theorem only require that the partial derivative exist almost everywhere, and not that it be continuous.[2] This formula is the general form of the Leibniz integral rule and can be derived using the fundamental theorem of calculus. The (first) fundamental theorem of calculus is just the particular case of the above formula where {displaystyle a(x)=ain mathbb {R} } is constant, {displaystyle b(x)=x,} and {displaystyle f(x,t)=f(t)} does not depend on x.

If both upper and lower limits are taken as constants, then the formula takes the shape of an operator equation:

{displaystyle {mathcal {I}}_{t}partial _{x}=partial _{x}{mathcal {I}}_{t}}

where partial _{x} is the partial derivative with respect to x and {displaystyle {mathcal {I}}_{t}} is the integral operator with respect to t over a fixed interval. That is, it is related to the symmetry of second derivatives, but involving integrals as well as derivatives. This case is also known as the Leibniz integral rule.

The following three basic theorems on the interchange of limits are essentially equivalent:

  • the interchange of a derivative and an integral (differentiation under the integral sign; i.e., Leibniz integral rule);
  • the change of order of partial derivatives;
  • the change of order of integration (integration under the integral sign; i.e., Fubini’s theorem).

Three-dimensional, time-dependent case[edit]

See also: § Higher dimensions

Figure 1: A vector field F(r, t) defined throughout space, and a surface Σ bounded by curve ∂Σ moving with velocity v over which the field is integrated.

A Leibniz integral rule for a two dimensional surface moving in three dimensional space is[3][4]

{displaystyle {frac {d}{dt}}iint _{Sigma (t)}mathbf {F} (mathbf {r} ,t)cdot dmathbf {A} =iint _{Sigma (t)}left(mathbf {F} _{t}(mathbf {r} ,t)+left[nabla cdot mathbf {F} (mathbf {r} ,t)right]mathbf {v} right)cdot dmathbf {A} -oint _{partial Sigma (t)}left[mathbf {v} times mathbf {F} (mathbf {r} ,t)right]cdot dmathbf {s} ,}

where:

  • F(r, t) is a vector field at the spatial position r at time t,
  • Σ is a surface bounded by the closed curve ∂Σ,
  • dA is a vector element of the surface Σ,
  • ds is a vector element of the curve ∂Σ,
  • v is the velocity of movement of the region Σ,
  • ∇⋅ is the vector divergence,
  • × is the vector cross product,
  • The double integrals are surface integrals over the surface Σ, and the line integral is over the bounding curve ∂Σ.

Higher dimensions[edit]

The Leibniz integral rule can be extended to multidimensional integrals. In two and three dimensions, this rule is better known from the field of fluid dynamics as the Reynolds transport theorem:

{displaystyle {frac {d}{dt}}int _{D(t)}F(mathbf {x} ,t),dV=int _{D(t)}{frac {partial }{partial t}}F(mathbf {x} ,t),dV+int _{partial D(t)}F(mathbf {x} ,t)mathbf {v} _{b}cdot dmathbf {Sigma } ,}

where {displaystyle F(mathbf {x} ,t)} is a scalar function, D(t) and D(t) denote a time-varying connected region of R3 and its boundary, respectively, {displaystyle mathbf {v} _{b}} is the Eulerian velocity of the boundary (see Lagrangian and Eulerian coordinates) and dΣ = n dS is the unit normal component of the surface element.

The general statement of the Leibniz integral rule requires concepts from differential geometry, specifically differential forms, exterior derivatives, wedge products and interior products. With those tools, the Leibniz integral rule in n dimensions is[4]

{displaystyle {frac {d}{dt}}int _{Omega (t)}omega =int _{Omega (t)}i_{mathbf {v} }(d_{x}omega )+int _{partial Omega (t)}i_{mathbf {v} }omega +int _{Omega (t)}{dot {omega }},}

where Ω(t) is a time-varying domain of integration, ω is a p-form, {displaystyle mathbf {v} ={frac {partial mathbf {x} }{partial t}}} is the vector field of the velocity, {displaystyle i_{mathbf {v} }} denotes the interior product with mathbf {v} , dxω is the exterior derivative of ω with respect to the space variables only and {dot  {omega }} is the time derivative of ω.

However, all of these identities can be derived from a most general statement about Lie derivatives:

{displaystyle left.{frac {d}{dt}}right|_{t=0}int _{operatorname {im} _{psi _{t}}(Omega )}omega =int _{Omega }{mathcal {L}}_{Psi }omega ,}

Here, the ambient manifold on which the differential form omega lives includes both space and time.

Something remarkable about this form, is that it can account for the case when Omega changes its shape and size over time, since such deformations are fully determined by Psi .

Measure theory statement[edit]

Let X be an open subset of mathbf {R} , and Omega be a measure space. Suppose {displaystyle fcolon Xtimes Omega to mathbf {R} } satisfies the following conditions:[5][6][2]

  1. f(x,omega ) is a Lebesgue-integrable function of omega for each xin X.
  2. For almost all omega in Omega , the partial derivative f_{x} exists for all xin X.
  3. There is an integrable function {displaystyle theta colon Omega to mathbf {R} } such that |f_{x}(x,omega )|leq theta (omega ) for all xin X and almost every omega in Omega .

Then, for all xin X,

{displaystyle {frac {d}{dx}}int _{Omega }f(x,omega ),domega =int _{Omega }f_{x}(x,omega ),domega .}

The proof relies on the dominated convergence theorem and the mean value theorem (details below).

Proofs[edit]

Proof of basic form[edit]

We first prove the case of constant limits of integration a and b.

We use Fubini’s theorem to change the order of integration. For every x and h, such that h > 0 and both x and x +h are within [x0,x1], we have:

{displaystyle int _{x}^{x+h}int _{a}^{b}f_{x}(x,t),dt,dx=int _{a}^{b}int _{x}^{x+h}f_{x}(x,t),dx,dt=int _{a}^{b}left(f(x+h,t)-f(x,t)right),dt=int _{a}^{b}f(x+h,t),dt-int _{a}^{b}f(x,t),dt}

Note that the integrals at hand are well defined since {displaystyle f_{x}(x,t)} is continuous at the closed rectangle {displaystyle [x_{0},x_{1}]times [a,b]} and thus also uniformly continuous there; thus its integrals by either dt or dx are continuous in the other variable and also integrable by it (essentially this is because for uniformly continuous functions, one may pass the limit through the integration sign, as elaborated below).

Therefore:

{displaystyle {frac {int _{a}^{b}f(x+h,t),dt-int _{a}^{b}f(x,t),dt}{h}}={frac {1}{h}}int _{x}^{x+h}int _{a}^{b}f_{x}(x,t),dt,dx={frac {F(x+h)-F(x)}{h}}}

Where we have defined:

{displaystyle F(u)equiv int _{x_{0}}^{u}int _{a}^{b}f_{x}(x,t),dt,dx}

(we may replace x0 here by any other point between x0 and x)

F is differentiable with derivative {textstyle int _{a}^{b}f_{x}(x,t),dt}, so we can take the limit where h approaches zero. For the left hand side this limit is:

{displaystyle {frac {d}{dx}}int _{a}^{b}f(x,t),dt}

For the right hand side, we get:

{displaystyle F'(x)=int _{a}^{b}f_{x}(x,t),dt}

And we thus prove the desired result:

{displaystyle {frac {d}{dx}}int _{a}^{b}f(x,t),dt=int _{a}^{b}f_{x}(x,t),dt}

Another proof using the bounded convergence theorem[edit]

If the integrals at hand are Lebesgue integrals, we may use the bounded convergence theorem (valid for these integrals, but not for Riemann integrals) in order to show that the limit can be passed through the integral sign.

Note that this proof is weaker in the sense that it only shows that fx(x,t) is Lebesgue integrable, but not that it is Riemann integrable. In the former (stronger) proof, if f(x,t) is Riemann integrable, then so is fx(x,t) (and thus is obviously also Lebesgue integrable).

Let

{displaystyle u(x)=int _{a}^{b}f(x,t),dt.}

(1)

By the definition of the derivative,

{displaystyle u'(x)=lim _{hto 0}{frac {u(x+h)-u(x)}{h}}.}

(2)

Substitute equation (1) into equation (2). The difference of two integrals equals the integral of the difference, and 1/h is a constant, so

{displaystyle {begin{aligned}u'(x)&=lim _{hto 0}{frac {int _{a}^{b}f(x+h,t),dt-int _{a}^{b}f(x,t),dt}{h}}\&=lim _{hto 0}{frac {int _{a}^{b}left(f(x+h,t)-f(x,t)right),dt}{h}}\&=lim _{hto 0}int _{a}^{b}{frac {f(x+h,t)-f(x,t)}{h}},dt.end{aligned}}}

We now show that the limit can be passed through the integral sign.

We claim that the passage of the limit under the integral sign is valid by the bounded convergence theorem (a corollary of the dominated convergence theorem). For each δ > 0, consider the difference quotient

{displaystyle f_{delta }(x,t)={frac {f(x+delta ,t)-f(x,t)}{delta }}.}

For t fixed, the mean value theorem implies there exists z in the interval [x, x + δ] such that

{displaystyle f_{delta }(x,t)=f_{x}(z,t).}

Continuity of fx(x, t) and compactness of the domain together imply that fx(x, t) is bounded. The above application of the mean value theorem therefore gives a uniform (independent of t) bound on {displaystyle f_{delta }(x,t)}. The difference quotients converge pointwise to the partial derivative fx by the assumption that the partial derivative exists.

The above argument shows that for every sequence {δn} → 0, the sequence {displaystyle {f_{delta _{n}}(x,t)}} is uniformly bounded and converges pointwise to fx. The bounded convergence theorem states that if a sequence of functions on a set of finite measure is uniformly bounded and converges pointwise, then passage of the limit under the integral is valid. In particular, the limit and integral may be exchanged for every sequence {δn} → 0. Therefore, the limit as δ → 0 may be passed through the integral sign.

Variable limits form[edit]

For a continuous real valued function g of one real variable, and real valued differentiable functions {displaystyle f_{1}} and {displaystyle f_{2}} of one real variable,

{displaystyle {frac {d}{dx}}left(int _{f_{1}(x)}^{f_{2}(x)}g(t),dtright)=gleft(f_{2}(x)right){f_{2}'(x)}-gleft(f_{1}(x)right){f_{1}'(x)}.}

This follows from the chain rule and the First Fundamental Theorem of Calculus. Define

{displaystyle G(x)=int _{f_{1}(x)}^{f_{2}(x)}g(t),dt,}

and

{displaystyle Gamma (x)=int _{0}^{x}g(t),dt.}

(The lower limit just has to be some number in the domain of g)

Then, {displaystyle G(x)} can be written as a composition: {displaystyle G(x)=(Gamma circ f_{2})(x)-(Gamma circ f_{1})(x)}. The Chain Rule then implies that

{displaystyle G'(x)=Gamma 'left(f_{2}(x)right)f_{2}'(x)-Gamma 'left(f_{1}(x)right)f_{1}'(x).}

By the First Fundamental Theorem of Calculus, {displaystyle Gamma '(x)=g(x)}. Therefore, substituting this result above, we get the desired equation:

{displaystyle G'(x)=gleft(f_{2}(x)right){f_{2}'(x)}-gleft(f_{1}(x)right){f_{1}'(x)}.}

Note: This form can be particularly useful if the expression to be differentiated is of the form:

{displaystyle int _{f_{1}(x)}^{f_{2}(x)}h(x)g(t),dt}

Because h(x) does not depend on the limits of integration, it may be moved out from under the integral sign, and the above form may be used with the Product rule, i.e.,

{displaystyle {frac {d}{dx}}left(int _{f_{1}(x)}^{f_{2}(x)}h(x)g(t),dtright)={frac {d}{dx}}left(h(x)int _{f_{1}(x)}^{f_{2}(x)}g(t),dtright)=h'(x)int _{f_{1}(x)}^{f_{2}(x)}g(t),dt+h(x){frac {d}{dx}}left(int _{f_{1}(x)}^{f_{2}(x)}g(t),dtright)}

General form with variable limits[edit]

Set

{displaystyle varphi (alpha )=int _{a}^{b}f(x,alpha ),dx,}

where a and b are functions of α that exhibit increments Δa and Δb, respectively, when α is increased by Δα. Then,

{displaystyle {begin{aligned}Delta varphi &=varphi (alpha +Delta alpha )-varphi (alpha )\[4pt]&=int _{a+Delta a}^{b+Delta b}f(x,alpha +Delta alpha ),dx-int _{a}^{b}f(x,alpha ),dx\[4pt]&=int _{a+Delta a}^{a}f(x,alpha +Delta alpha ),dx+int _{a}^{b}f(x,alpha +Delta alpha ),dx+int _{b}^{b+Delta b}f(x,alpha +Delta alpha ),dx-int _{a}^{b}f(x,alpha ),dx\[4pt]&=-int _{a}^{a+Delta a}f(x,alpha +Delta alpha ),dx+int _{a}^{b}[f(x,alpha +Delta alpha )-f(x,alpha )],dx+int _{b}^{b+Delta b}f(x,alpha +Delta alpha ),dx.end{aligned}}}

A form of the mean value theorem, {textstyle int _{a}^{b}f(x),dx=(b-a)f(xi )}, where a < ξ < b, may be applied to the first and last integrals of the formula for Δφ above, resulting in

{displaystyle Delta varphi =-Delta af(xi _{1},alpha +Delta alpha )+int _{a}^{b}[f(x,alpha +Delta alpha )-f(x,alpha )],dx+Delta bf(xi _{2},alpha +Delta alpha ).}

Divide by Δα and let Δα → 0. Notice ξ1a and ξ2b. We may pass the limit through the integral sign:

{displaystyle lim _{Delta alpha to 0}int _{a}^{b}{frac {f(x,alpha +Delta alpha )-f(x,alpha )}{Delta alpha }},dx=int _{a}^{b}{frac {partial }{partial alpha }}f(x,alpha ),dx,}

again by the bounded convergence theorem. This yields the general form of the Leibniz integral rule,

{displaystyle {frac {dvarphi }{dalpha }}=int _{a}^{b}{frac {partial }{partial alpha }}f(x,alpha ),dx+f(b,alpha ){frac {db}{dalpha }}-f(a,alpha ){frac {da}{dalpha }}.}

Alternative proof of the general form with variable limits, using the chain rule[edit]

The general form of Leibniz’s Integral Rule with variable limits can be derived as a consequence of the basic form of Leibniz’s Integral Rule, the multivariable chain rule, and the First Fundamental Theorem of Calculus. Suppose f is defined in a rectangle in the {displaystyle x-t} plane, for {displaystyle xin [x_{1},x_{2}]} and {displaystyle tin [t_{1},t_{2}]}. Also, assume f and the partial derivative {textstyle {frac {partial f}{partial x}}} are both continuous functions on this rectangle. Suppose a,b are differentiable real valued functions defined on {displaystyle [x_{1},x_{2}]}, with values in {displaystyle [t_{1},t_{2}]} (i.e. for every {displaystyle xin [x_{1},x_{2}],a(x),b(x)in [t_{1},t_{2}]}). Now, set

{displaystyle F(x,y)=int _{t_{1}}^{y}f(x,t),dt,qquad {text{for}}~xin [x_{1},x_{2}]~{text{and}}~yin [t_{1},t_{2}]}

and

{displaystyle G(x)=int _{a(x)}^{b(x)}f(x,t),dt,quad {text{for}}~xin [x_{1},x_{2}]}

Then, by properties of Definite Integrals, we can write

{displaystyle {begin{aligned}G(x)&=int _{t_{1}}^{b(x)}f(x,t),dt-int _{t_{1}}^{a(x)}f(x,t),dt\[4pt]&=F(x,b(x))-F(x,a(x))end{aligned}}}

Since the functions {displaystyle F,a,b} are all differentiable (see the remark at the end of the proof), by the Multivariable Chain Rule, it follows that G is differentiable, and its derivative is given by the formula:

{displaystyle G'(x)=left({frac {partial F}{partial x}}(x,b(x))+{frac {partial F}{partial y}}(x,b(x))b'(x)right)-left({frac {partial F}{partial x}}(x,a(x))+{frac {partial F}{partial y}}(x,a(x))a'(x)right)}

Now, note that for every {displaystyle xin [x_{1},x_{2}]}, and for every {displaystyle yin [t_{1},t_{2}]}, we have that {textstyle {frac {partial F}{partial x}}(x,y)=int _{t_{1}}^{y}{frac {partial f}{partial x}}(x,t),dt}, because when taking the partial derivative with respect to x of F, we are keeping y fixed in the expression {textstyle int _{t_{1}}^{y}f(x,t),dt}; thus the basic form of Leibniz’s Integral Rule with constant limits of integration applies. Next, by the First Fundamental Theorem of Calculus, we have that {textstyle {frac {partial F}{partial y}}(x,y)=f(x,y)}; because when taking the partial derivative with respect to y of F, the first variable x is fixed, so the fundamental theorem can indeed be applied.

Substituting these results into the equation for {displaystyle G'(x)} above gives:

{displaystyle {begin{aligned}G'(x)&=left(int _{t_{1}}^{b(x)}{frac {partial f}{partial x}}(x,t),dt+f(x,b(x))b'(x)right)-left(int _{t_{1}}^{a(x)}{dfrac {partial f}{partial x}}(x,t),dt+f(x,a(x))a'(x)right)\[2pt]&=f(x,b(x))b'(x)-f(x,a(x))a'(x)+int _{a(x)}^{b(x)}{frac {partial f}{partial x}}(x,t),dt,end{aligned}}}

as desired.

There is a technical point in the proof above which is worth noting: applying the Chain Rule to G requires that F already be differentiable. This is where we use our assumptions about f. As mentioned above, the partial derivatives of F are given by the formulas {textstyle {frac {partial F}{partial x}}(x,y)=int _{t_{1}}^{y}{frac {partial f}{partial x}}(x,t),dt} and {textstyle {frac {partial F}{partial y}}(x,y)=f(x,y)}. Since {textstyle {dfrac {partial f}{partial x}}} is continuous, its integral is also a continuous function,[7] and since f is also continuous, these two results show that both the partial derivatives of F are continuous. Since continuity of partial derivatives implies differentiability of the function,[8] F is indeed differentiable.

Three-dimensional, time-dependent form[edit]

See also: § Higher dimensions

At time t the surface Σ in Figure 1 contains a set of points arranged about a centroid {displaystyle mathbf {C} (t)}. The function {displaystyle mathbf {F} (mathbf {r} ,t)} can be written as

{displaystyle mathbf {F} (mathbf {C} (t)+mathbf {r} -mathbf {C} (t),t)=mathbf {F} (mathbf {C} (t)+mathbf {I} ,t),}

with mathbf {I} independent of time. Variables are shifted to a new frame of reference attached to the moving surface, with origin at {displaystyle mathbf {C} (t)}. For a rigidly translating surface, the limits of integration are then independent of time, so:

{displaystyle {frac {d}{dt}}left(iint _{Sigma (t)}dmathbf {A} _{mathbf {r} }cdot mathbf {F} (mathbf {r} ,t)right)=iint _{Sigma }dmathbf {A} _{mathbf {I} }cdot {frac {d}{dt}}mathbf {F} (mathbf {C} (t)+mathbf {I} ,t),}

where the limits of integration confining the integral to the region Σ no longer are time dependent so differentiation passes through the integration to act on the integrand only:

{displaystyle {frac {d}{dt}}mathbf {F} (mathbf {C} (t)+mathbf {I} ,t)=mathbf {F} _{t}(mathbf {C} (t)+mathbf {I} ,t)+mathbf {vcdot nabla F} (mathbf {C} (t)+mathbf {I} ,t)=mathbf {F} _{t}(mathbf {r} ,t)+mathbf {v} cdot nabla mathbf {F} (mathbf {r} ,t),}

with the velocity of motion of the surface defined by

{displaystyle mathbf {v} ={frac {d}{dt}}mathbf {C} (t).}

This equation expresses the material derivative of the field, that is, the derivative with respect to a coordinate system attached to the moving surface. Having found the derivative, variables can be switched back to the original frame of reference. We notice that (see article on curl)

{displaystyle nabla times left(mathbf {v} times mathbf {F} right)=(nabla cdot mathbf {F} +mathbf {F} cdot nabla )mathbf {v} -(nabla cdot mathbf {v} +mathbf {v} cdot nabla )mathbf {F} ,}

and that Stokes theorem equates the surface integral of the curl over Σ with a line integral over ∂Σ:

{displaystyle {frac {d}{dt}}left(iint _{Sigma (t)}mathbf {F} (mathbf {r} ,t)cdot dmathbf {A} right)=iint _{Sigma (t)}{big (}mathbf {F} _{t}(mathbf {r} ,t)+left(mathbf {Fcdot nabla } right)mathbf {v} +left(nabla cdot mathbf {F} right)mathbf {v} -(nabla cdot mathbf {v} )mathbf {F} {big )}cdot dmathbf {A} -oint _{partial Sigma (t)}left(mathbf {v} times mathbf {F} right)cdot dmathbf {s} .}

The sign of the line integral is based on the right-hand rule for the choice of direction of line element ds. To establish this sign, for example, suppose the field F points in the positive z-direction, and the surface Σ is a portion of the xy-plane with perimeter ∂Σ. We adopt the normal to Σ to be in the positive z-direction. Positive traversal of ∂Σ is then counterclockwise (right-hand rule with thumb along z-axis). Then the integral on the left-hand side determines a positive flux of F through Σ. Suppose Σ translates in the positive x-direction at velocity v. An element of the boundary of Σ parallel to the y-axis, say ds, sweeps out an area vt × ds in time t. If we integrate around the boundary ∂Σ in a counterclockwise sense, vt × ds points in the negative z-direction on the left side of ∂Σ (where ds points downward), and in the positive z-direction on the right side of ∂Σ (where ds points upward), which makes sense because Σ is moving to the right, adding area on the right and losing it on the left. On that basis, the flux of F is increasing on the right of ∂Σ and decreasing on the left. However, the dot product v × Fds = −F × vds = −Fv × ds. Consequently, the sign of the line integral is taken as negative.

If v is a constant,

{displaystyle {frac {d}{dt}}iint _{Sigma (t)}mathbf {F} (mathbf {r} ,t)cdot dmathbf {A} =iint _{Sigma (t)}{big (}mathbf {F} _{t}(mathbf {r} ,t)+left(nabla cdot mathbf {F} right)mathbf {v} {big )}cdot dmathbf {A} -oint _{partial Sigma (t)}left(mathbf {v} times mathbf {F} right)cdot ,dmathbf {s} ,}

which is the quoted result. This proof does not consider the possibility of the surface deforming as it moves.

Alternative derivation[edit]

Lemma. One has:

{displaystyle {frac {partial }{partial b}}left(int _{a}^{b}f(x),dxright)=f(b),qquad {frac {partial }{partial a}}left(int _{a}^{b}f(x),dxright)=-f(a).}

Proof. From the proof of the fundamental theorem of calculus,

{displaystyle {begin{aligned}{frac {partial }{partial b}}left(int _{a}^{b}f(x),dxright)&=lim _{Delta bto 0}{frac {1}{Delta b}}left[int _{a}^{b+Delta b}f(x),dx-int _{a}^{b}f(x),dxright]\[6pt]&=lim _{Delta bto 0}{frac {1}{Delta b}}int _{b}^{b+Delta b}f(x),dx\[6pt]&=lim _{Delta bto 0}{frac {1}{Delta b}}left[f(b)Delta b+Oleft(Delta b^{2}right)right]\[6pt]&=f(b),end{aligned}}}

and

{displaystyle {begin{aligned}{frac {partial }{partial a}}left(int _{a}^{b}f(x),dxright)&=lim _{Delta ato 0}{frac {1}{Delta a}}left[int _{a+Delta a}^{b}f(x),dx-int _{a}^{b}f(x),dxright]\[6pt]&=lim _{Delta ato 0}{frac {1}{Delta a}}int _{a+Delta a}^{a}f(x),dx\[6pt]&=lim _{Delta ato 0}{frac {1}{Delta a}}left[-f(a)Delta a+Oleft(Delta a^{2}right)right]\[6pt]&=-f(a).end{aligned}}}

Suppose a and b are constant, and that f(x) involves a parameter α which is constant in the integration but may vary to form different integrals. Assume that f(x, α) is a continuous function of x and α in the compact set {(x, α) : α0αα1 and axb}, and that the partial derivative fα(x, α) exists and is continuous. If one defines:

{displaystyle varphi (alpha )=int _{a}^{b}f(x,alpha ),dx,}

then varphi may be differentiated with respect to α by differentiating under the integral sign, i.e.,

{displaystyle {frac {dvarphi }{dalpha }}=int _{a}^{b}{frac {partial }{partial alpha }}f(x,alpha ),dx.}

By the Heine–Cantor theorem it is uniformly continuous in that set. In other words, for any ε > 0 there exists Δα such that for all values of x in [a, b],

{displaystyle |f(x,alpha +Delta alpha )-f(x,alpha )|<varepsilon .}

On the other hand,

{displaystyle {begin{aligned}Delta varphi &=varphi (alpha +Delta alpha )-varphi (alpha )\[6pt]&=int _{a}^{b}f(x,alpha +Delta alpha ),dx-int _{a}^{b}f(x,alpha ),dx\[6pt]&=int _{a}^{b}left(f(x,alpha +Delta alpha )-f(x,alpha )right),dx\[6pt]&leq varepsilon (b-a).end{aligned}}}

Hence φ(α) is a continuous function.

Similarly if {displaystyle {frac {partial }{partial alpha }}f(x,alpha )} exists and is continuous, then for all ε > 0 there exists Δα such that:

{displaystyle forall xin [a,b],quad left|{frac {f(x,alpha +Delta alpha )-f(x,alpha )}{Delta alpha }}-{frac {partial f}{partial alpha }}right|<varepsilon .}

Therefore,

{displaystyle {frac {Delta varphi }{Delta alpha }}=int _{a}^{b}{frac {f(x,alpha +Delta alpha )-f(x,alpha )}{Delta alpha }},dx=int _{a}^{b}{frac {partial f(x,alpha )}{partial alpha }},dx+R,}

where

{displaystyle |R|<int _{a}^{b}varepsilon ,dx=varepsilon (b-a).}

Now, ε → 0 as Δα → 0, so

{displaystyle lim _{{Delta alpha }to 0}{frac {Delta varphi }{Delta alpha }}={frac {dvarphi }{dalpha }}=int _{a}^{b}{frac {partial }{partial alpha }}f(x,alpha ),dx.}

This is the formula we set out to prove.

Now, suppose

{displaystyle int _{a}^{b}f(x,alpha ),dx=varphi (alpha ),}

where a and b are functions of α which take increments Δa and Δb, respectively, when α is increased by Δα. Then,

{displaystyle {begin{aligned}Delta varphi &=varphi (alpha +Delta alpha )-varphi (alpha )\[6pt]&=int _{a+Delta a}^{b+Delta b}f(x,alpha +Delta alpha ),dx-int _{a}^{b}f(x,alpha ),dx\[6pt]&=int _{a+Delta a}^{a}f(x,alpha +Delta alpha ),dx+int _{a}^{b}f(x,alpha +Delta alpha ),dx+int _{b}^{b+Delta b}f(x,alpha +Delta alpha ),dx-int _{a}^{b}f(x,alpha ),dx\[6pt]&=-int _{a}^{a+Delta a}f(x,alpha +Delta alpha ),dx+int _{a}^{b}[f(x,alpha +Delta alpha )-f(x,alpha )],dx+int _{b}^{b+Delta b}f(x,alpha +Delta alpha ),dx.end{aligned}}}

A form of the mean value theorem, {textstyle int _{a}^{b}f(x),dx=(b-a)f(xi ),} where a < ξ < b, can be applied to the first and last integrals of the formula for Δφ above, resulting in

{displaystyle Delta varphi =-Delta a,f(xi _{1},alpha +Delta alpha )+int _{a}^{b}[f(x,alpha +Delta alpha )-f(x,alpha )],dx+Delta b,f(xi _{2},alpha +Delta alpha ).}

Dividing by Δα, letting Δα → 0, noticing ξ1a and ξ2b and using the above derivation for

{displaystyle {frac {dvarphi }{dalpha }}=int _{a}^{b}{frac {partial }{partial alpha }}f(x,alpha ),dx}

yields

{displaystyle {frac {dvarphi }{dalpha }}=int _{a}^{b}{frac {partial }{partial alpha }}f(x,alpha ),dx+f(b,alpha ){frac {partial b}{partial alpha }}-f(a,alpha ){frac {partial a}{partial alpha }}.}

This is the general form of the Leibniz integral rule.

Examples[edit]

Example 1: Fixed limits[edit]

Consider the function

{displaystyle varphi (alpha )=int _{0}^{1}{frac {alpha }{x^{2}+alpha ^{2}}},dx.}

The function under the integral sign is not continuous at the point (x, α) = (0, 0), and the function φ(α) has a discontinuity at α = 0 because φ(α) approaches ±π/2 as α → 0±.

If we differentiate φ(α) with respect to α under the integral sign, we get

{displaystyle {frac {d}{dalpha }}varphi (alpha )=int _{0}^{1}{frac {partial }{partial alpha }}left({frac {alpha }{x^{2}+alpha ^{2}}}right),dx=int _{0}^{1}{frac {x^{2}-alpha ^{2}}{(x^{2}+alpha ^{2})^{2}}}dx=left.-{frac {x}{x^{2}+alpha ^{2}}}right|_{0}^{1}=-{frac {1}{1+alpha ^{2}}},}

which is, of course, true for all values of α except α = 0. This may be integrated (with respect to α) to find

{displaystyle varphi (alpha )={begin{cases}0,&alpha =0,\-arctan({alpha })+{frac {pi }{2}},&alpha neq 0.end{cases}}}

Example 2: Variable limits[edit]

An example with variable limits:

{displaystyle {begin{aligned}{frac {d}{dx}}int _{sin x}^{cos x}cosh t^{2},dt&=cosh left(cos ^{2}xright){frac {d}{dx}}(cos x)-cosh left(sin ^{2}xright){frac {d}{dx}}(sin x)+int _{sin x}^{cos x}{frac {partial }{partial x}}(cosh t^{2}),dt\[6pt]&=cosh(cos ^{2}x)(-sin x)-cosh(sin ^{2}x)(cos x)+0\[6pt]&=-cosh(cos ^{2}x)sin x-cosh(sin ^{2}x)cos x.end{aligned}}}

Applications[edit]

Evaluating definite integrals[edit]

The formula

{displaystyle {frac {d}{dx}}left(int _{a(x)}^{b(x)}f(x,t),dtright)=f{big (}x,b(x){big )}cdot {frac {d}{dx}}b(x)-f{big (}x,a(x){big )}cdot {frac {d}{dx}}a(x)+int _{a(x)}^{b(x)}{frac {partial }{partial x}}f(x,t),dt}

can be of use when evaluating certain definite integrals. When used in this context, the Leibniz integral rule for differentiating under the integral sign is also known as Feynman’s trick for integration.

Example 3[edit]

Consider

{displaystyle varphi (alpha )=int _{0}^{pi }ln left(1-2alpha cos(x)+alpha ^{2}right),dx,qquad |alpha |neq 1.}

Now,

{displaystyle {begin{aligned}{frac {d}{dalpha }}varphi (alpha )&=int _{0}^{pi }{frac {-2cos(x)+2alpha }{1-2alpha cos(x)+alpha ^{2}}}dx\[6pt]&={frac {1}{alpha }}int _{0}^{pi }left(1-{frac {1-alpha ^{2}}{1-2alpha cos(x)+alpha ^{2}}}right)dx\[6pt]&=left.{frac {pi }{alpha }}-{frac {2}{alpha }}left{arctan left({frac {1+alpha }{1-alpha }}tan left({frac {x}{2}}right)right)right}right|_{0}^{pi }.end{aligned}}}

As x varies from {displaystyle 0} to pi , we have

{displaystyle {begin{cases}{frac {1+alpha }{1-alpha }}tan left({frac {x}{2}}right)geq 0,&|alpha |<1,\{frac {1+alpha }{1-alpha }}tan left({frac {x}{2}}right)leq 0,&|alpha |>1.end{cases}}}

Hence,

{displaystyle left.arctan left({frac {1+alpha }{1-alpha }}tan left({frac {x}{2}}right)right)right|_{0}^{pi }={begin{cases}{frac {pi }{2}},&|alpha |<1,\-{frac {pi }{2}},&|alpha |>1.end{cases}}}

Therefore,

{displaystyle {frac {d}{dalpha }}varphi (alpha )={begin{cases}0,&|alpha |<1,\{frac {2pi }{alpha }},&|alpha |>1.end{cases}}}

Integrating both sides with respect to alpha , we get:

{displaystyle varphi (alpha )={begin{cases}C_{1},&|alpha |<1,\2pi ln |alpha |+C_{2},&|alpha |>1.end{cases}}}

{displaystyle C_{1}=0} follows from evaluating {displaystyle varphi (0)}:

{displaystyle varphi (0)=int _{0}^{pi }ln(1),dx=int _{0}^{pi }0,dx=0.}

To determine C_{2} in the same manner, we should need to substitute in a value of alpha greater than 1 in {displaystyle varphi (alpha )}. This is somewhat inconvenient. Instead, we substitute {textstyle alpha ={frac {1}{beta }}}, where {displaystyle |beta |<1}. Then,

{displaystyle {begin{aligned}varphi (alpha )&=int _{0}^{pi }left(ln left(1-2beta cos(x)+beta ^{2}right)-2ln |beta |right)dx\[6pt]&=int _{0}^{pi }ln left(1-2beta cos(x)+beta ^{2}right),dx-int _{0}^{pi }2ln |beta |dx\[6pt]&=0-2pi ln |beta |\[6pt]&=2pi ln |alpha |.end{aligned}}}

Therefore, {displaystyle C_{2}=0}

The definition of {displaystyle varphi (alpha )} is now complete:

{displaystyle varphi (alpha )={begin{cases}0,&|alpha |<1,\2pi ln |alpha |,&|alpha |>1.end{cases}}}

The foregoing discussion, of course, does not apply when alpha =pm 1, since the conditions for differentiability are not met.

Example 4[edit]

{displaystyle mathbf {I} =int _{0}^{pi /2}{frac {1}{(acos ^{2}x+bsin ^{2}x)^{2}}},dx,qquad a,b>0.}

First we calculate:

{displaystyle {begin{aligned}mathbf {J} &=int _{0}^{pi /2}{frac {1}{acos ^{2}x+bsin ^{2}x}}dx\[6pt]&=int _{0}^{pi /2}{frac {frac {1}{cos ^{2}x}}{a+b{frac {sin ^{2}x}{cos ^{2}x}}}}dx\[6pt]&=int _{0}^{pi /2}{frac {sec ^{2}x}{a+btan ^{2}x}}dx\[6pt]&={frac {1}{b}}int _{0}^{pi /2}{frac {1}{left({sqrt {frac {a}{b}}}right)^{2}+tan ^{2}x}},d(tan x)\[6pt]&=left.{frac {1}{sqrt {ab}}}arctan left({sqrt {frac {b}{a}}}tan xright)right|_{0}^{pi /2}\[6pt]&={frac {pi }{2{sqrt {ab}}}}.end{aligned}}}

The limits of integration being independent of a, we have:

{displaystyle {frac {partial mathbf {J} }{partial a}}=-int _{0}^{pi /2}{frac {cos ^{2}x}{left(acos ^{2}x+bsin ^{2}xright)^{2}}},dx}

On the other hand:

{displaystyle {frac {partial mathbf {J} }{partial a}}={frac {partial }{partial a}}left({frac {pi }{2{sqrt {ab}}}}right)=-{frac {pi }{4{sqrt {a^{3}b}}}}.}

Equating these two relations then yields

{displaystyle int _{0}^{pi /2}{frac {cos ^{2}x}{left(acos ^{2}x+bsin ^{2}xright)^{2}}},dx={frac {pi }{4{sqrt {a^{3}b}}}}.}

In a similar fashion, pursuing {displaystyle {frac {partial mathbf {J} }{partial b}}} yields

{displaystyle int _{0}^{pi /2}{frac {sin ^{2}x}{left(acos ^{2}x+bsin ^{2}xright)^{2}}},dx={frac {pi }{4{sqrt {ab^{3}}}}}.}

Adding the two results then produces

{displaystyle mathbf {I} =int _{0}^{pi /2}{frac {1}{left(acos ^{2}x+bsin ^{2}xright)^{2}}},dx={frac {pi }{4{sqrt {ab}}}}left({frac {1}{a}}+{frac {1}{b}}right),}

which computes {displaystyle mathbf {I} } as desired.

This derivation may be generalized. Note that if we define

{displaystyle mathbf {I} _{n}=int _{0}^{pi /2}{frac {1}{left(acos ^{2}x+bsin ^{2}xright)^{n}}},dx,}

it can easily be shown that

{displaystyle (1-n)mathbf {I} _{n}={frac {partial mathbf {I} _{n-1}}{partial a}}+{frac {partial mathbf {I} _{n-1}}{partial b}}}

Given {mathbf  {I}}_{1}, this integral reduction formula can be used to compute all of the values of {mathbf  {I}}_{n} for n>1. Integrals like mathbf {I} and mathbf {J} may also be handled using the Weierstrass substitution.

Example 5[edit]

Here, we consider the integral

{displaystyle mathbf {I} (alpha )=int _{0}^{pi /2}{frac {ln(1+cos alpha cos x)}{cos x}},dx,qquad 0<alpha <pi .}

Differentiating under the integral with respect to alpha , we have

{displaystyle {begin{aligned}{frac {d}{dalpha }}mathbf {I} (alpha )&=int _{0}^{pi /2}{frac {partial }{partial alpha }}left({frac {ln(1+cos alpha cos x)}{cos x}}right),dx\[6pt]&=-int _{0}^{pi /2}{frac {sin alpha }{1+cos alpha cos x}},dx\&=-int _{0}^{pi /2}{frac {sin alpha }{left(cos ^{2}{frac {x}{2}}+sin ^{2}{frac {x}{2}}right)+cos alpha left(cos ^{2}{frac {x}{2}}-sin ^{2}{frac {x}{2}}right)}},dx\[6pt]&=-{frac {sin alpha }{1-cos alpha }}int _{0}^{pi /2}{frac {1}{cos ^{2}{frac {x}{2}}}}{frac {1}{{frac {1+cos alpha }{1-cos alpha }}+tan ^{2}{frac {x}{2}}}},dx\[6pt]&=-{frac {2sin alpha }{1-cos alpha }}int _{0}^{pi /2}{frac {{frac {1}{2}}sec ^{2}{frac {x}{2}}}{{frac {2cos ^{2}{frac {alpha }{2}}}{2sin ^{2}{frac {alpha }{2}}}}+tan ^{2}{frac {x}{2}}}},dx\[6pt]&=-{frac {2left(2sin {frac {alpha }{2}}cos {frac {alpha }{2}}right)}{2sin ^{2}{frac {alpha }{2}}}}int _{0}^{pi /2}{frac {1}{cot ^{2}{frac {alpha }{2}}+tan ^{2}{frac {x}{2}}}},dleft(tan {frac {x}{2}}right)\[6pt]&=-2cot {frac {alpha }{2}}int _{0}^{pi /2}{frac {1}{cot ^{2}{frac {alpha }{2}}+tan ^{2}{frac {x}{2}}}},dleft(tan {frac {x}{2}}right)\[6pt]&=-2arctan left(tan {frac {alpha }{2}}tan {frac {x}{2}}right){bigg |}_{0}^{pi /2}\[6pt]&=-alpha .end{aligned}}}

Therefore:

{displaystyle mathbf {I} (alpha )=C-{frac {alpha ^{2}}{2}}.}

But {textstyle mathbf {I} left({frac {pi }{2}}right)=0} by definition so {textstyle C={frac {pi ^{2}}{8}}} and

{displaystyle mathbf {I} (alpha )={frac {pi ^{2}}{8}}-{frac {alpha ^{2}}{2}}.}

Example 6[edit]

Here, we consider the integral

{displaystyle int _{0}^{2pi }e^{cos theta }cos(sin theta ),dtheta .}

We introduce a new variable φ and rewrite the integral as

{displaystyle f(varphi )=int _{0}^{2pi }e^{varphi cos theta }cos(varphi sin theta ),dtheta .}

When φ = 1 this equals the original integral. However, this more general integral may be differentiated with respect to varphi :

{displaystyle {begin{aligned}{frac {df}{dvarphi }}&=int _{0}^{2pi }{frac {partial }{partial varphi }}left(e^{varphi cos theta }cos(varphi sin theta )right),dtheta \[6pt]&=int _{0}^{2pi }e^{varphi cos theta }left(cos theta cos(varphi sin theta )-sin theta sin(varphi sin theta )right),dtheta .end{aligned}}}

Now, fix φ, and consider the vector field on {displaystyle mathbf {R} ^{2}} defined by {displaystyle mathbf {F} (x,y)=(F_{1}(x,y),F_{2}(x,y)):=(e^{varphi x}sin(varphi y),e^{varphi x}cos(varphi y))}. Further, choose the positive oriented parametrization of the unit circle {displaystyle S^{1}} given by {displaystyle mathbf {r} colon [0,2pi )to mathbf {R} ^{2}}, {displaystyle mathbf {r} (theta ):=(cos theta ,sin theta )}, so that {displaystyle mathbf {r} '(t)=(-sin theta ,cos theta )}. Then the final integral above is precisely

{displaystyle {begin{aligned}&int _{0}^{2pi }e^{varphi cos theta }left(cos theta cos(varphi sin theta )-sin theta sin(varphi sin theta )right),dtheta \[6pt]={}&int _{0}^{2pi }(e^{varphi cos theta }sin(varphi sin theta ),e^{varphi cos theta }cos(varphi sin theta ))cdot (-sin theta ,cos theta ),dtheta \[6pt]={}&int _{0}^{2pi }mathbf {F} (mathbf {r} (theta ))cdot mathbf {r} '(theta ),dtheta \[6pt]={}&oint _{S^{1}}mathbf {F} (mathbf {r} )cdot dmathbf {r} =oint _{S^{1}}F_{1},dx+F_{2},dy,end{aligned}}}

the line integral of mathbf {F} over S^{1}. By Green’s Theorem, this equals the double integral

{displaystyle iint _{D}{frac {partial F_{2}}{partial x}}-{frac {partial F_{1}}{partial y}},dA,}

where D is the closed unit disc. Its integrand is identically 0, so {displaystyle df/dvarphi } is likewise identically zero. This implies that f(φ) is constant. The constant may be determined by evaluating f at varphi = 0:

{displaystyle f(0)=int _{0}^{2pi }1,dtheta =2pi .}

Therefore, the original integral also equals 2pi .

Other problems to solve[edit]

There are innumerable other integrals that can be solved using the technique of differentiation under the integral sign. For example, in each of the following cases, the original integral may be replaced by a similar integral having a new parameter alpha :

{displaystyle {begin{aligned}int _{0}^{infty }{frac {sin x}{x}},dx&to int _{0}^{infty }e^{-alpha x}{frac {sin x}{x}}dx,\[6pt]int _{0}^{pi /2}{frac {x}{tan x}},dx&to int _{0}^{pi /2}{frac {tan ^{-1}(alpha tan x)}{tan x}}dx,\[6pt]int _{0}^{infty }{frac {ln(1+x^{2})}{1+x^{2}}},dx&to int _{0}^{infty }{frac {ln(1+alpha ^{2}x^{2})}{1+x^{2}}}dx\[6pt]int _{0}^{1}{frac {x-1}{ln x}},dx&to int _{0}^{1}{frac {x^{alpha }-1}{ln x}}dx.end{aligned}}}

The first integral, the Dirichlet integral, is absolutely convergent for positive α but only conditionally convergent when alpha =0. Therefore, differentiation under the integral sign is easy to justify when alpha >0, but proving that the resulting formula remains valid when alpha =0 requires some careful work.

Infinite series[edit]

The measure-theoretic version of differentiation under the integral sign also applies to summation (finite or infinite) by interpreting summation as counting measure. An example of an application is the fact that power series are differentiable in their radius of convergence.[citation needed]

In popular culture[edit]

Differentiation under the integral sign is mentioned in the late physicist Richard Feynman’s best-selling memoir Surely You’re Joking, Mr. Feynman! in the chapter “A Different Box of Tools”. He describes learning it, while in high school, from an old text, Advanced Calculus (1926), by Frederick S. Woods (who was a professor of mathematics in the Massachusetts Institute of Technology). The technique was not often taught when Feynman later received his formal education in calculus, but using this technique, Feynman was able to solve otherwise difficult integration problems upon his arrival at graduate school at Princeton University:

One thing I never did learn was contour integration. I had learned to do integrals by various methods shown in a book that my high school physics teacher Mr. Bader had given me. One day he told me to stay after class. “Feynman,” he said, “you talk too much and you make too much noise. I know why. You’re bored. So I’m going to give you a book. You go up there in the back, in the corner, and study this book, and when you know everything that’s in this book, you can talk again.” So every physics class, I paid no attention to what was going on with Pascal’s Law, or whatever they were doing. I was up in the back with this book: “Advanced Calculus”, by Woods. Bader knew I had studied “Calculus for the Practical Man” a little bit, so he gave me the real works—it was for a junior or senior course in college. It had Fourier series, Bessel functions, determinants, elliptic functions—all kinds of wonderful stuff that I didn’t know anything about. That book also showed how to differentiate parameters under the integral sign—it’s a certain operation. It turns out that’s not taught very much in the universities; they don’t emphasize it. But I caught on how to use that method, and I used that one damn tool again and again. So because I was self-taught using that book, I had peculiar methods of doing integrals. The result was, when guys at MIT or Princeton had trouble doing a certain integral, it was because they couldn’t do it with the standard methods they had learned in school. If it was contour integration, they would have found it; if it was a simple series expansion, they would have found it. Then I come along and try differentiating under the integral sign, and often it worked. So I got a great reputation for doing integrals, only because my box of tools was different from everybody else’s, and they had tried all their tools on it before giving the problem to me.

See also[edit]

  • Chain rule
  • Differentiation of integrals
  • Leibniz rule (generalized product rule)
  • Reynolds transport theorem, a generalization of Leibniz rule

References[edit]

  1. ^ Protter, Murray H.; Morrey, Charles B. Jr. (1985). “Differentiation under the Integral Sign”. Intermediate Calculus (Second ed.). New York: Springer. pp. 421–426. doi:10.1007/978-1-4612-1086-3. ISBN 978-0-387-96058-6.
  2. ^ a b Talvila, Erik (June 2001). “Necessary and Sufficient Conditions for Differentiating under the Integral Sign”. American Mathematical Monthly. 108 (6): 544–548. arXiv:math/0101012. doi:10.2307/2695709. JSTOR 2695709. Retrieved 16 April 2022.
  3. ^ Abraham, Max; Becker, Richard (1950). Classical Theory of Electricity and Magnetism (2nd ed.). London: Blackie & Sons. pp. 39–40.
  4. ^ a b Flanders, Harly (June–July 1973). “Differentiation under the integral sign” (PDF). American Mathematical Monthly. 80 (6): 615–627. doi:10.2307/2319163. JSTOR 2319163.
  5. ^ Folland, Gerald (1999). Real Analysis: Modern Techniques and their Applications (2nd ed.). New York: John Wiley & Sons. p. 56. ISBN 978-0-471-31716-6.
  6. ^ Cheng, Steve (6 September 2010). Differentiation under the integral sign with weak derivatives (Report). CiteSeerX. CiteSeerX 10.1.1.525.2529.
  7. ^ Spivak, Michael (1994). Calculus (3 ed.). Houston, Texas: Publish or Perish, Inc. pp. 267–268. ISBN 978-0-914098-89-8.
  8. ^ Spivak, Michael (1965). Calculus on Manifolds. Addison-Wesley Publishing Company. p. 31. ISBN 978-0-8053-9021-6.

Further reading[edit]

  • Amazigo, John C.; Rubenfeld, Lester A. (1980). “Single Integrals: Leibnitz’s Rule; Numerical Integration”. Advanced Calculus and its Applications to the Engineering and Physical Sciences. New York: Wiley. pp. 155–165. ISBN 0-471-04934-4.
  • Kaplan, Wilfred (1973). “Integrals Depending on a Parameter—Leibnitz’s Rule”. Advanced Calculus (2nd ed.). Reading: Addison-Wesley. pp. 285–288.

External links[edit]

  • Harron, Rob. “The Leibniz Rule” (PDF). MAT-203.

У этого термина существуют и другие значения, см. Формула Лейбница.

Формула Лейбница для n-ой производной произведения двух функций — обобщение правила дифференцирования произведения (и отношения) двух функций на случай n-кратного дифференцирования.

Пусть функции f(z) и g(z) — n раз дифференцируемые функции, тогда

left(fcdot gright)^{{(n)}}=sum limits _{{k=0}}^{{n}}{C_{n}^{k}f^{{(n-k)}}g^{{(k)}}}, где C_{n}^{k}={n choose k}={{n!} over {k!;(n-k)!}} — биномиальные коэффициенты.

Примеры[править | править код]

При n=1 получается известное правило производной произведения:

(fcdot g)'={f'g}+{fg'}.

В случае n=2, например, имеем:

(fcdot g)''=sum limits _{{k=0}}^{{2}}{C_{2}^{k}f^{{(2-k)}}g^{{(k)}}}={f''g}+{2f'g'}+{fg''}.

В случае n=3, например, имеем:

{displaystyle (fcdot g)'''=sum limits _{k=0}^{3}{C_{3}^{k}f^{(3-k)}g^{(k)}}={f'''g}+{3f''g'}+{3f'g''}+{fg'''}.}

В случае n=4, например, имеем:

{displaystyle (fcdot g)^{(4)}=sum limits _{k=0}^{4}{C_{4}^{k}f^{(4-k)}g^{(k)}}={f^{(4)}g}+{4f^{(3)}g^{(1)}}+{6f^{(2)}g^{(2)}}+{4f^{(1)}g^{(3)}}+{fg^{(4)}}.}

Доказательство и обобщение[править | править код]

Доказательство формулы осуществляется по индукции с использованием правила произведения.
В мультииндексной записи формула может быть записана в более общем виде:

partial ^{alpha }(fg)=sum _{{{beta ,:,beta leq alpha }}}{alpha  choose beta }(partial ^{{alpha -beta }}f)(partial ^{{beta }}g).

Эта формула может быть использована для получения выражения для композиции дифференциальных операторов. В самом деле, пусть P и Q — дифференциальные операторы (с коэффициентами, которые дифференцируемы достаточное число раз) и R=Pcirc Q. Если R также является дифференциальным оператором, то справедливо равенство:

R(x,xi )=e^{{-{langle x,xi rangle }}}R(e^{{langle x,xi rangle }}).

Непосредственное вычисление дает:

R(x,xi )=sum _{alpha }{1 over alpha !}left({partial  over partial xi }right)^{alpha }P(x,xi )left({partial  over partial x}right)^{alpha }Q(x,xi ).

Эта формула также известна как формула Лейбница.

Литература[править | править код]

  • Шипачев В. С. Основы высшей математики: Учебное пособие для вузов / Под ред. акад. А. Н. Тихонова. — М.: Высшая школа, 1989. — 479 с. — ISBN 5-06-000048-6.
  • Зорич В. А. Математический анализ. Часть 1. — 2-e. — М.: ФАЗИС, 1997. — 554 с. — ISBN 5-7036-0031-6.

Вычисления производной любого порядка

Автор статьи

оксана николаевна кузнецова

Эксперт по предмету «Математика»

Задать вопрос автору статьи

Пусть $y = uv$, где $u$ и $v$ — некоторые функции от переменной $х$, имеющие производные любого порядка. Тогда

Правая часть данных выражений похожа на разложение степеней бинома $(u + v)n$ по формуле Ньютона, вместо показателей степени стоят числа, определяющие порядок производных, а $u$ и $v$ можно рассматривать как производные 0-го порядка. Таким образом, общий вид $n$-й производной произведения двух функций:

Формула получила название формулы Лейбница для нахождения производных любого порядка.

Пример 1

Найти производную третьего порядка

[y(x)=5x^{2} ln x]

Решение.

  1. Запишем производную по формуле Лейбница
  2. [y^{(3)} (x)=left(5x^{2} right)^{(3)} ln x+C_{3}^{1} left(5x^{2} right){{‘} } {{‘} } ln x’+C_{3}^{2} left(5x^{2} right){{‘} } ln x”+5x^{2} ln x^{(3)} ]

  3. Посчитаем коэффициенты при слагаемых
  4. [C_{3}^{1} =frac{3!}{1!(3-1)!} =frac{3!}{2!} =frac{2!3}{2!} =3]

    [C_{3}^{2} =frac{3!}{2!(3-2)!} =frac{3!}{2!} =frac{2!3}{2!} =3]

  5. Найдем производные первого сомножителя
  6. [left(5x^{2} right){{‘} } =10x]

    [left(5x^{2} right){{‘} } {{‘} } =left(10xright){{‘} } =10]

    [left(5x^{2} right){{‘} } {{‘} {‘} } =left(10right){{‘} } =1]

  7. Найдем производные второго сомножителя
  8. [ln x’=frac{1}{x} ]

    [ln x”=left(frac{1}{x} right){{‘} } =-frac{1}{x^{2} } ]

    [ln x”’=left(-frac{1}{x^{2} } right){{‘} } =frac{2}{x^{3} } ]

  9. Подставим найденные значения в формулу Лейбница
  10. [y^{(3)} (x)=1cdot ln x+3cdot 10cdot frac{1}{x} -3cdot 10xcdot frac{1}{x^{2} } +5x^{2} frac{2}{x^{3} } ]

  11. Упростим выражение
  12. [y^{(3)} (x)=ln x+frac{30}{x} -frac{30}{x} +frac{10}{x} =ln x+frac{10}{x} ]

Логотип baranka

Сдай на права пока
учишься в ВУЗе

Вся теория в удобном приложении. Выбери инструктора и начни заниматься!

Получить скидку 3 000 ₽

Пример 2

Найти производную четвертого порядка

[y(x)=e^{4x} sin 3x]

Решение.

  1. Запишем производную по формуле Лейбница
  2. [y^{(4)} (x)=left(e^{4x} right)^{(4)} sin 3x+C_{4}^{1} left(e^{4x} right)^{(3)} sin 3x’+C_{4}^{2} left(e^{4x} right)^{(2)} sin 3x”+C_{4}^{3} left(e^{4x} right){{‘} } sin 3x”’+e^{4x} sin 3x^{(4)} ]

  3. Посчитаем коэффициенты при слагаемых
  4. [C_{4}^{1} =frac{4!}{1!(4-1)!} =frac{4!}{3!} =frac{3!4}{3!} =4]

    [C_{4}^{2} =frac{4!}{2!(4-2)!} =frac{4!}{2!2!} =frac{1cdot 2cdot 3cdot 4}{1cdot 2cdot 1cdot 2} =6]

    [C_{4}^{3} =frac{4!}{3!(4-3)!} =frac{4!}{3!1!} =frac{3!4}{3!} =4]

  5. Найдем производные первого сомножителя
  6. [left(e^{4x} right){{‘} } =e^{4x} cdot 4x’=4e^{4x} ]

    [left(e^{4x} right){{‘} } {{‘} } =left(4e^{4x} right){{‘} } =16e^{4x} ]

    [left(e^{4x} right){{‘} } {{‘} } {{‘} } =left(16e^{4x} right){{‘} } =64e^{4x} ]

    [left(e^{4x} right)^{(4)} =left(64e^{4x} right){{‘} } {{‘} } {{‘} } =256e^{4x} ]

  7. Найдем производные второго сомножителя
  8. [sin 3x’=cos 3xcdot 3x’=3cos 3x]

    [sin 3x”=left(3cos 3xright){{‘} } =3left(-sin 3xright)cdot left(3xright){{‘} } =-9sin 3x]

    [sin 3x”’=left(-9sin 3xright){{‘} } ^{} =-27cos 3x]

    [sin 3x^{(4)} =left(-27cos 3xright){{‘} } =81sin 3x]

  9. Подставим найденные значения в формулу Лейбница
  10. [y^{(4)} (x)=256e^{4x} sin 3x+4cdot 64e^{4x} cdot 3cos 3x+6cdot 16e^{4x} cdot left(-9sin 3xright)+4cdot 4e^{4x} cdot left(-27cos 3xright)+e^{4x} cdot 81sin 3x]

  11. Упростим
  12. [y^{(4)} (x)=e^{4x} (336cos 3x-527sin 3x)]

«Вычисления производной любого порядка» 👇

Пример 3

Найти производную пятого порядка

[y(x)=x^{10} e^{x} ]

Решение.

  1. Запишем производную по формуле Лейбница
  2. [x^{10} {{‘} } =10x^{9} ]

  3. Посчитаем коэффициенты при слагаемых
  4. [C_{5}^{1} =frac{5!}{1!(5-1)!} =frac{4!5}{4!} =5]

    [C_{5}^{2} =frac{5!}{2!(5-2)!} =frac{3!4cdot 5}{2!3!} =10]

    [C_{5}^{3} =frac{5!}{3!(4-2)!} =frac{5!}{3!2!} =frac{1cdot 2cdot 3cdot 4cdot 5}{1cdot 2cdot 3cdot 1cdot 2} =10]

    [C_{5}^{4} =frac{5!}{4!(5-4)!} =frac{5!}{4!} =frac{4!5}{4!} =5]

  5. Производная любого порядка $ех$ равна $ех$
  6. Найдем производные второго сомножителя
  7. [x^{10}{{‘} } =10x^{9} ]

    [x^{10}{{‘} }{{‘} } =left(10x^{9} right){{‘} } =90x^{8} ]

    [x^{10}{{‘} }{{‘} }{{‘} } =left(90x^{8} right){{‘} } =720x^{7} ]

    [x^{10}{(4)} =720x^{7} {{‘} } =5040x^{6} ]

    [x^{10}{(5)} =5040x^{6} {{‘} } =30240x^{5} ]

  8. Подставим найденные значения в формулу Лейбница
  9. [y^{(5)} (x)=30240x^{5} e^{x} +5cdot 5040x^{6} e^{x} +10cdot 720x^{7} e^{x} +10cdot 90x^{8} e^{x} +5cdot 10x^{9} e^{x} +x^{10} e^{x} ]

  10. Упростим
  11. [y^{(5)} (x)=30240x^{5} e^{x} +25200x^{6} e^{x} +7200x^{7} e^{x} +900x^{8} e^{x} +50x^{9} e^{x} +x^{10} e^{x} =]

    [y^{(5)} (x)=x^{5} e^{x} left(30240+25200x+7200x^{2} +900x^{3} +50x^{4} +x^{5} right)]

Находи статьи и создавай свой список литературы по ГОСТу

Поиск по теме

Дата последнего обновления статьи: 11.12.2022

В конце 12 века великий английский учёный
Исаак Ньютон доказал, что Путь и скорость
связаны между собой формулой: V(t)=S’(t) и
такая связь существует между количественными
характеристиками самых различных
процессов исследуем: физикой, (a=V’=x’’,
F=ma=m*x’’, импульс P=mV=mx’, кинетическая
E=mV2/2=mx’2/2), химией, биологией и техническими
науками.

Это открытие Ньютона стало поворотным
пунктом в истории естествознания. Честь
открытия основных законов математического
анализа наравне с Ньютоном принадлежит
немецкому математику Готфриду Вильгельму
Лейбницу.

К этим законам Лейбниц пришел, решая
задачу проведения касательной к
произвольной кривой, т.е. сформулировал
геометрический смысл производной, что
значение производной в точке касания
есть угловой коэффициент касательной
или tg угла наклона касательной с
положительным направлением оси ОX.


Рисунок 1. Готфрид Лейбниц
Рисунок 2. Исаак
Ньютон

Глава 2. Понятие производной

При
решении различных задач геометрии,
механики, физики и других отраслей
знания возникла необходимость с помощью
одного и того же аналитического процесса
из данной функции y=f(x) получать
новую функцию, которую называют производной
функцией (или
просто производной)
данной функции f(x) и
обозначают символом

Тот
процесс, с помощью которого из данной
функции f(x) получают
новую функцию f
‘ (
x),
называют дифференцированием и
состоит он из следующих трех шагов:  

 1)
даем аргументу x приращение x и
определяем соответствующее приращение
функции y
=
f(x+x)
f(x);
  

2)
составляем отношение

  3)
считая x постоянным,
а x 0,
находим
,
который обозначаем через f
‘ (
x),
как бы подчеркивая тем самым, что
полученная функция зависит лишь от того
значения x,
при котором мы переходим к пределу.   

ОпределениеПроизводной
y
‘ =
f
‘ (
x) данной
функции
y=f(x) при
данном
x называется
предел отношения приращения функции к
приращению аргумента при условии, что
приращение аргумента стремится к нулю,
если, конечно, этот предел существует,
т.е. конечен.   Таким
образом, 
,
или

  Заметим,
что если при некотором значении x,
например при x=a,
отношение 
приx0
не стремится к конечному пределу, то в
этом случае говорят, что
функция f(x) при x=a (или
в точке x=a)
не имеет производной или не дифференцируема
в точке x=a.

Глава 3. Смысл производной

3.1. Геометрический смысл производной

Рассмотрим график функции
у = f (х), дифференцируемой в окрест­ностях
точки x0

f(x)

Рассмотрим произвольную
прямую, проходящую через точку гра­фика
функции – точку А (x0,
f (х0))
и пересекающую график в некоторой точке
B (x; f(x)). Такая прямая (АВ) называется
секущей. Из ∆АВС: АС = ∆x; ВС =∆у; tg β=∆y/∆x.

Так как АС || Ox, то ALO
= BAC
= β (как соответственные при параллельных).
Но ALO
– это угол наклона секущей АВ к
положи­тельному направлению оси Ох.
Значит, tg β = k – угловой коэффициент
прямой АВ.

Теперь будем уменьшать ∆х,
т.е. ∆х→ 0. При этом точка В будет
прибли­жаться к точке А по графику, а
секущая АВ будет поворачиваться.
Пре­дельным положением секущей АВ
при ∆х→ 0 будет прямая (a), называемая
касательной к графику функции у = f (х) в
точке А.

Если перейти к пределу при
∆х → 0 в равенстве tg β =∆y/∆x, то получи
или
tg 
=f ‘(x0),
так как 
-угол
накло­на касательной к положительному
направлению оси Ох 
,
по определению производной. Но tg 
= k – угловой коэффициент каса­тельной,
значит, k = tg 
= f ‘(x0).

Итак, геометрический смысл
производной заключается в следую­щем:

Производная функции в точке
x0 равна
угловому коэффициенту ка­сательной
к графику функции, проведенной в точке
с абсциссой x0.

Соседние файлы в предмете Высшая математика

  • #
  • #

Формула Лейбница для вычисления производных высших порядков от произведения двух функций

  • Авторы
  • Руководители
  • Файлы работы
  • Наградные документы

Борисова О.О. 1


1МОУ СШ №35 Волгоград

Емельяненко М.В. 1Сазонова Е.В. 1


1МОУ СШ №35 Волгоград


Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке “Файлы работы” в формате PDF

Тоже мне, бином Ньютона!»

из романа «Мастер и Маргарита»

«Треугольник Паскаля так прост, что выписать его сможет даже десятилетний ребенок. В то же время он таит в себе неисчерпаемые сокровища и связывает воедино различные аспекты математики, не имеющие на первый взгляд между собой ничего общего. Столь необычные свойства позволяют считать треугольник Паскаля одной из наиболее изящных схем во всей математике»

Мартин Гарднер.

Цель работы: обобщить формулы сокращенного умножения, показать их применение к решению задач.

Задачи:

1) изучить и систематизировать информацию по данному вопросу;

2) разобрать примеры задач на применение бинома Ньютона и формул суммы и разности степеней.

Объекты исследования: бином Ньютона, формулы суммы и разности степеней.

Методы исследования:

Работа с учебной и научно-популярной литературой, ресурсами сети Интернет.

Расчеты, сравнение, анализ, аналогия.

Актуальность. Человеку часто приходится иметь дело с задачами, в которых нужно подсчитать число всех возможных способов расположения некоторых предметов или число всех возможных способов осуществления некоторого действия. Разные пути или варианты, которые приходится выбирать человеку, складываются в самые разнообразные комбинации. И целый раздел математики, называемый комбинаторикой, занят поиском ответов на вопросы: сколько всего есть комбинаций в том или другом случае.

С комбинаторными величинами приходится иметь дело представителям многих специальностей: ученому–химику, биологу, конструктору, диспетчеру и т. п. Усиление интереса к комбинаторике в последнее время обуславливается бурным развитием кибернетики и вычислительной техники.

Введение

Когда хотят подчеркнуть, что собеседник преувеличивает сложность задач, с которыми он столкнулся, говорят: «Тоже мне бином Ньютона!» Дескать, вот бином Ньютона, это сложно, а у тебя какие проблемы! О биноме Ньютона слышали даже те люди, чьи интересы никак не связаны с математикой.

Слово «бином» означает двучлен, т.е. сумму двух слагаемых. Из школьного курса известны так называемые формулы сокращенного умножения:

(а + b)2 = a2 + 2ab + b2, (a + b)3 = a3 +3a2b + 3ab2 + b3.

Обобщением этих формул является формула, называемая формулой бинома Ньютона. Используются в школе и формулы разложения на множители разности квадратов, суммы и разности кубов. Имеют ли они обобщение для других степеней? Да, есть такие формулы, они часто используются в решении различных задач: на доказательство делимости, сокращение дробей, приближенные вычисления.

Изучение обобщающих формул развивает дедуктивно-математическое мышление и общие мыслительные способности.

РАЗДЕЛ 1. ФОРМУЛА БИНОМА НЬЮТОНА

Сочетания и их свойства

Пусть X – множество, состоящее из n элементов. Любое подмножество Y множества X, содержащее k элементов, называется сочетанием k элементов из n, при этом, kn.

Число различных сочетаний k элементов из n обозначается Сnk. Одной из важнейших формул комбинаторики является следующая формула для числа Сnk:

Её можно записать после очевидных сокращений следующим образом:

В частности,

Это вполне согласуется с тем, что в множестве X имеется только одно подмножество из 0 элементов – пустое подмножество.

Числа Cnk обладают рядом замечательных свойств.

Справедлива формула Сnk = Сnkn, (3)

Смысл формулы (3) состоит в том, что имеется взаимно-однозначное соответствие между множеством всех k-членных подмножеств из X и множеством всех (nk)-членных подмножеств из X: чтобы установить это соответствие, достаточно каждому k-членному подмножеству Y сопоставить его дополнение в множестве X.

Справедлива формула С0n + С1n + С2n + … + Сnn = 2n (4)

Сумма, стоящая в левой части, выражает собой число всех подмножеств множества X (C0n есть число 0-членных подмножеств, C1n – число одночленных подмножеств и т.д.).

При любом k, 1≤ k≤ n , справедливо равенство

Ckn = Cn-1k + Cn-1k-1 (5)

Это равенство нетрудно получить с помощью формулы (1). В самом деле,

1.2. Вывод формулы бинома Ньютона

Рассмотрим степени двучлена а + b.

n = 0, (а +b)0= 1

n = 1, (а +b)1= 1а+1b

n = 2, (а + b)2= 1а2+ 2аb +1b2

n = 3, ( а + b)3= 1 а3+ 3а2b + 3аb2+1 b3

n = 4, ( а + b)4= 1а4+ 4а3b + 6а2b2+4а b3+1b4

n = 5, (а + b)5=5+ 5а4b+ 10а3b2+ 10а2b3+ 5аb4+ 1b5

Заметим следующиезакономерности:

– число членов получаемого многочлена на единицу больше показателя степени бинома;

– показатель степени первого слагаемого убывает от n до 0, показатель степени второго слагаемого возрастает от 0 до n;

– степени всех одночленов равны степени двучлена в условии;

– каждый одночлен является произведением первого и второго выражения в различных степенях и некоторого числа – биноминального коэффициента;

– биноминальные коэффициенты, равноотстоящие от начала и конца разложения, равны.

Обобщением этих формул является следующая формула, называемая формулой бинома Ньютона:

(a + b)n = C0nanb0+ C1nan-1b + C2nan-2b2 + … + Cn-1nabn-1 + Cnna0bn. (6)

В этой формуле n может быть любым натуральным числом. [2]

Выведем формулу(6). Прежде всего, запишем:

(a + b)n = (a + b)(a + b) … (a + b), (7)

где число перемножаемых скобок равно n. Из обычного правила умножения суммы на сумму вытекает, что выражение (7) равно сумме всевозможных произведений, которые можно составить следующим образом: любое слагаемое первой из сумм а + b умножается на любое слагаемое второй суммы a +b, на любое слагаемое третьей суммы и т.д.

Из сказанного ясно, что слагаемым в выражении для (a + b)n соответствуют (взаимно-однозначно) строки длиной n, составленные из букв а и b. Среди слагаемых будут встречаться подобные члены; очевидно, что таким членам соответствуют строки, содержащие одинаковое количество букв а. Но число строк, содержащих ровно k раз букву а, равно Сnk. Значит, сумма всех членов, содержащих букву а множителем ровно k раз, равна Сnkankbk. Поскольку k может принимать значения 0, 1, 2, …, n-1, n, то из нашего рассуждения следует формула (6). Заметим, что (6) можно записать короче: (8)

Хотя формулу (6) называют именем Ньютона, в действительности она была открыта ещё до Ньютона (например, её знал Паскаль). Заслуга Ньютона состоит в том, что он нашёл обобщение этой формулы на случай не целых показателей. Именно И.Ньютон в 1664–1665 гг. вывел формулу, выражающую степень двучлена для произвольных дробных и отрицательных показателей.

Числа С0n, C1n, …, Cnn, входящие в формулу (6), принято называть биномиальными коэффициентами, которые определяются так:

Из формулы (6) можно получить целый ряд свойств этих коэффициентов. Например, полагая а =1, b = 1, получим:

2n = C0n + C1n + C2n + C3n + … +Cnn,

т.е. формулу (4). Если положить а = 1, b = -1, то будем иметь:

0 = С0nC1n + C2nC3n + … + (-1)nCnn

или С0n + C2n + C4n + … = C1n + C3n + + C5n + … .

Это значит, что сумма коэффициентов чётных членов разложения равна сумме коэффициентов нечётных членов разложения; каждая из них равна 2n-1.

Коэффициенты членов, равноудалённых от концов разложения, равны. Это свойства следует из соотношения: Сnk = Сnnk

Интересен частный случай

(x + 1)n = C0 nxn + C1nxn-1 + … + Cknxnk + … + Cnnx0

или короче (x +1)n = ∑Cnkxnk.

1.3.Полиномиальная теорема

Теорема.

Доказательство.

Чтобы после раскрытия скобок получился одночлен  , нужно выбрать те  скобок, из которых берется  , те  скобок, из которых берется  и т.д. и те  скобок, из которых берется  . Коэффициент при этом одночлене после приведения подобных членов равен числу способов, которыми можно осуществить такой выбор. Первый шаг последовательности выборов можно осуществить  способами, второй шаг —  , третий —  и т.д.,  -й шаг —  способами. Искомый коэффициент равен произведению

РАЗДЕЛ 2. Производные высших порядков.

Понятие производных высших порядков.

Пусть функция дифференцируема в некотором интервале. Тогда её производная , вообще говоря, зависит от х, то есть является функцией от х. Следовательно, по отношению к ней снова можно ставить вопрос о существовании производной.

Определение. Производная от первой производной называется производной второго порядка или второй производной и обозначается символом или , то есть

.

Определение. Производная от второй производной называется производной третьего порядка или третьей производной и обозначается символом или .

Определение. Производной n-ого порядка функции называется первая производная от производной (n-1)-го порядка данной функции и обозначается символом или :

.

Определение. Производные порядка выше первого называются высшими производными.

Замечание. Аналогично можно получить формулу n-ой производной функции :

.

Вторая производная параметрически заданной функции

Если функция задана параметрически уравнениями , то для нахождения производной второго порядка нужно продифференцировать выражение для её первой производной, как сложной функции независимой переменной.

Так как , то

,

и с учетом того, что ,

Получим , то есть .

Аналогично можно найти третью производную .

Дифференциал суммы, произведения и частного.

Так как дифференциал получается из производной умножением её на дифференциал независимой переменной, то, зная производные основных элементарных функций, а также правила для отыскания производных, можно прийти к аналогичным правилам для отыскания дифференциалов.

10. Дифференциал постоянной равен нулю .

20. Дифференциал алгебраической суммы конечного числа дифференцируемых функций равен алгебраической сумме дифференциалов этих функций .

30. Дифференциал произведения двух дифференцируемых функций равен сумме произведений первой функции на дифференциал второй и второй функции на дифференциал первой .

Следствие. Постоянный множитель можно выносить за знак дифференциала .

2.3. Функции, заданные параметрически, их дифференцирование.

Определение. Функция называется заданной параметрически, если обе переменные х и у определяются каждая в отдельности как однозначные функции от одной и той же вспомогательной переменной – параметра t:

где t изменяется в пределах .

Замечание. Приведем параметрические уравнения окружности и эллипса.

а) Окружность с центром в начале координат и радиусом rимеет параметрические уравнения:

где .

б) Запишем параметрические уравнения для эллипса:

где .

Исключив параметр t из параметрических уравнений рассматриваемых линий, можно прийти к их каноническим уравнениям.

Теорема. Если функция у от аргумента х задана параметрически уравнениями , где и дифференцируемые по t функции и , то .

2.4. Формула Лейбница

Для нахождения производной n-ого порядка от произведения двух функций большое практическое значение имеет формула Лейбница.

Пусть uиv– некоторые функции от переменной х, имеющие производные любого порядка и y=uv. Выразим n-ую производную через производные функций uиv.

Имеем последовательно

,

,

.

Легко подметить аналогию между выражениями для второй и третьей производных и разложением бинома Ньютона соответственно во второй и третьей степенях, но вместо показателей степени стоят числа, определяющие порядок производной, а сами функции можно рассматривать как «производные нулевого порядка». Учитывая это, получим формулу Лейбница:

. (2)

Эту формулу можно доказать методом математической индукции.

РАЗДЕЛ 3. ПРИМЕНЕНИЕ ФОРМУЛЫ ЛЕЙБНИЦА.

Для вычисления производной любого порядка от произведения двух функций, минуя последовательное применение формулы вычисления производной от произведения двух функций, применяется формула Лейбница.

С помощью этой формулы рассмотрим примеры вычисления производной n-го порядка от произведения двух функций.

Пример 1.

Найти производную второго порядка функции

Решение:

Согласно определению, вторая производная – это первая производная от первой производной, то есть

Поэтому сначала найдем производную первого порядка от заданной функции согласно правилам дифференцирования и используя таблицу производных:

Теперь найдем производную от производной первого порядка. Это будет искомая производная второго порядка:

Ответ:

Пример 2.

Найти производную -го порядка функции 

Решение.

Будем последовательно находить производные первого, второго, третьего и так далее порядков заданной функции для того, чтобы установить закономерность, которую можно будет обобщить на -ую производную.

Производную первого порядка находим как производную частного:

Здесь выражение называется факториалом числа . Факториал числа равен произведению чисел от одного до , то есть

Производная второго порядка есть первая производная от первой производной, то есть

Производная третьего порядка:

Четвертая производная:

Заметим закономерность: в числителе стоит факториал числа, которое равно порядку производной, а в знаменателе выражение   в степени на единицу больше, чем порядок производной, то есть

Ответ.

Пример 3.

Найти значение третьей производной функции  в точке  .

Решение.

Согласно таблице производных высших порядков, имеем:

В рассматриваемом примере , , , то есть получаем

Заметим, что подобный результат можно было бы получить и при последовательном нахождении производных.

В заданной точке  третья производная равна:

Ответ:

Пример 4.

Найти вторую производную функции 

Решение. Для начала найдем первую производную:

Для нахождения второй производной продифференцируем выражение для первой производной еще раз:

Ответ:

Пример 5.

Найти  , если

Так как заданная функция представляет собой произведение двух функций  ,  , то для нахождения производной четвертого порядка целесообразно будет применить формулу Лейбница:

Найдем все производные и посчитаем коэффициенты при слагаемых.

1) Посчитаем коэффициенты при слагаемых:

2) Найдем производные от функции  :

3) Найдем производные от функции  :

Тогда

Ответ:

Пример 6.

Дана функция y=x2cos3x. Найти производную третьего порядка.

Решение.

Пусть u=cos3x, v=x2. Тогда по формуле Лейбница находим:

Производные в этом выражении имеют вид:

(cos3x)′=−3sin3x,

(cos3x)′′=(−3sin3x)′=−9cos3x,

(cos3x)′′′=(−9cos3x)′=27sin3x,

(x2)′=2x,

(x2)′′=2,

(x2)′′′=0.

Следовательно, третья производная заданной функции равна

=127sin3xx2+3(−9cos3x)2x+3(−3sin3x)2+1cos3x0

=27x2sin3x−54xcos3x−18sin3x=(27×2−18)sin3x−54xcos3x.

Пример 7.

Найти производную n-го порядка функции y=x2cosx.

Решение.

Воспользуемся формулой Лейбница, полагая u=cosx, v=x2. Тогда

Остальные члены ряда равны нулю, поскольку (x2)(i)=0 при i>2.

Производная n-го порядка функции косинус:

Следовательно, производная нашей функции равна

ЗАКЛЮЧЕНИЕ

В школе изучаются и используются так называемые формулы сокращенного умножения: квадраты и кубы суммы и разности двух выражений и формулы разложения на множители разности квадратов, суммы и разности кубов двух выражений. Обобщением этих формул является формула, называемая формулой бинома Ньютона и формулы разложения на множители суммы и разности степеней. Эти формулы часто используются в решении различных задач: на доказательство делимости, сокращение дробей, приближенные вычисления. Рассмотрены интересные свойства треугольника Паскаля, которые тесно связаны с биномом Ньютона.

В работе систематизирована информация по теме, приведены примеры задач на применение бинома Ньютона и формул суммы и разности степеней. Работа может быть использована в работе математического кружка, а также для самостоятельного изучения теми, кто увлекается математикой.

СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ

1.Виленкин Н.Я. Комбинаторика.– изд. “Наука”. – М., 1969 г.

2. Никольский С.М., Потапов М.К., Решетников Н.Н., Шевкин А.В. Алгебра и начала математического анализа. 10 класс: учеб. для общеобразоват. организаций базовый и углубленный уровни – М.: Просвещение, 2014. – 431 с.

3.Решение задач по статистике, комбинаторике и теории вероятностей. 7-9 кл./ автор – составитель В.Н. Студенецкая. – изд. 2-е., испр., – Волгоград: Учитель, 2009 г.

4.Савушкина И.А., Хугаев К.Д., Тишкин С.Б. Алгебраические уравнения высших степеней /методическое пособие для слушателей межвузовского подготовительного отделения. – Санкт-Петербург, 2001.

5.Шарыгин И.Ф. Факультативный курс по математике: Решение задач. Учебное пособие для 10 кл. средней школы. – М.: Просвещение, 1989.

6.Наука и жизнь, Бином Ньютона и треугольник Паскаля [Электронный ресурс]. – Режим доступа: http://www.nkj.ru/archive/articles/13598/

Просмотров работы: 690

Добавить комментарий