Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
teknopedia

teknopedia

teknopedia

teknopedia

teknopedia

teknopedia
teknopedia
teknopedia
teknopedia
teknopedia
teknopedia
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Derivata - Teknopedia
Derivata - Teknopedia
La retta L tangente in P al grafico della funzione ha pendenza data dalla derivata della funzione in P

In matematica, la derivata è una funzione che rappresenta il tasso di cambiamento di una data funzione rispetto a una certa variabile, vale a dire la misura di quanto il valore di una funzione cambi al variare del suo argomento. Più informalmente, la derivata misura la crescita (o decrescita) che avrebbe una funzione in uno specifico punto spostandosi di pochissimo dal punto considerato.

La derivata f ′ ( x ) {\displaystyle f'(x)} {\displaystyle f'(x)} di una funzione f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} in un punto x 0 {\displaystyle x_{0}} {\displaystyle x_{0}}, nel caso di funzioni a una variabile nel campo reale, corrisponde alla pendenza della retta tangente al grafico della funzione f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} nel punto x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} e ne rappresenta la migliore approssimazione lineare. Nel caso in cui la derivata esista (cioè la funzione sia derivabile) in ogni punto del dominio, la si può vedere a sua volta come una funzione che associa a ogni punto proprio la derivata in quel punto.

Il concetto di derivata è, insieme a quello di integrale, uno dei cardini dell'analisi matematica e del calcolo infinitesimale. Il significato pratico di derivata è il tasso di variazione di una certa grandezza presa in considerazione. Un esempio molto noto di derivata è la variazione della posizione di un oggetto rispetto al tempo, chiamata velocità istantanea.

Descrizione

[modifica | modifica wikitesto]
La derivata di una funzione in un punto è il coefficiente angolare della retta tangente alla curva nel punto. Si tratta quindi di un numero che misura la pendenza della retta tangente.

La derivata di una funzione f {\displaystyle f} {\displaystyle f} in un punto x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} è il valore del coefficiente angolare della retta tangente alla curva nel punto, cioè la tangente trigonometrica dell'angolo formato dalla tangente in un punto della curva di equazione y = f ( x ) {\displaystyle y=f(x)} {\displaystyle y=f(x)} e l'asse delle ascisse. Se la derivata di una funzione f {\displaystyle f} {\displaystyle f} in un punto x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} è f ′ ( x ) = 0 {\displaystyle f'(x)=0} {\displaystyle f'(x)=0}, la retta tangente al grafico della funzione f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} è parallela all'asse delle ascisse, mentre se il limite mediante cui si calcola la derivata in un punto x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} è infinito la retta tangente al grafico della funzione f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} è parallela all'asse delle ordinate. La funzione derivata si ricava con una serie di operazioni algebriche note come regole di derivazione, applicabili universalmente a tutte le funzioni derivabili.

Nel caso di funzioni di più variabili la tangente in un punto alla curva della funzione non è unica, ma varia a seconda della direzione scelta. Non si può più quindi definire una sola funzione delle stesse variabili indipendenti che renda conto della pendenza del grafico della funzione in un punto: si ricorre allora alle derivate parziali della funzione, cioè ai coefficienti angolari di tangenti considerate lungo direzioni parallele agli assi che rappresentano le variabili indipendenti.

Le derivate parziali sono tante quante il numero delle variabili stesse, e una loro notevole proprietà è che se la funzione è sufficientemente "regolare" (cioè differenziabile) è possibile calcolarne la tangente lungo una direzione qualunque con una combinazione lineare delle derivate parziali stesse. Questo è possibile perché l'operatore di derivazione è un operatore lineare, e quindi la derivata di una combinazione lineare di funzioni derivabili è la combinazione lineare delle derivate delle singole funzioni, e la derivata del prodotto di uno scalare per una funzione è il prodotto dello scalare per la derivata della funzione.

Definizione

[modifica | modifica wikitesto]
Un'animazione che dà un'idea intuitiva della derivata, poiché lo "swing" di una funzione cambia quando cambia l'argomento.

La nozione di derivata si introduce, nel caso di funzione a una variabile indipendente nel campo reale, considerando una funzione reale f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} di variabile reale x {\displaystyle x} {\displaystyle x} e un punto x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} del suo dominio. La derivata di f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} in x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} è definita come il numero f ′ ( x 0 ) {\displaystyle f'(x_{0})} {\displaystyle f'(x_{0})} uguale al limite del rapporto incrementale al tendere a 0 dell'incremento, sotto l'ipotesi che tale limite esista e sia finito. In modo esplicito, detto h {\displaystyle h} {\displaystyle h} l'incremento, una funzione f {\displaystyle f} {\displaystyle f} definita in un intorno di x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} si dice derivabile nel punto x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} se esiste ed è finito il limite:

f ′ ( x 0 ) = lim h → 0 f ( x 0 + h ) − f ( x 0 ) h {\displaystyle f'(x_{0})=\lim _{h\to 0}{\frac {f(x_{0}+h)-f(x_{0})}{h}}} {\displaystyle f'(x_{0})=\lim _{h\to 0}{\frac {f(x_{0}+h)-f(x_{0})}{h}}}

e il valore di questo limite è la derivata della funzione nel punto x 0 {\displaystyle x_{0}} {\displaystyle x_{0}}. Se la funzione f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} è derivabile in ogni punto di un dato intervallo ( a , b ) {\displaystyle (a,b)} {\displaystyle (a,b)}, allora si dice che essa è derivabile in ( a , b ) {\displaystyle (a,b)} {\displaystyle (a,b)} e la funzione f ′ : x ∈ ( a , b ) → f ′ ( x ) {\displaystyle f'\colon x\in (a,b)\to f'(x)} {\displaystyle f'\colon x\in (a,b)\to f'(x)} che associa a ogni punto x {\displaystyle x} {\displaystyle x} la derivata f ′ ( x ) {\displaystyle f'(x)} {\displaystyle f'(x)} di f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} è la funzione derivata di f {\displaystyle f} {\displaystyle f}.

Derivata complessa

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Derivata complessa.

Nonostante il caso più semplice sia quello delle funzioni reali, la definizione di derivata trova la sua collocazione più naturale nell'ambito dell'analisi complessa, dove, applicata alle funzioni di variabile complessa, prende il nome di derivata complessa.[1] Detto U {\displaystyle U} {\displaystyle U} un sottoinsieme aperto del piano complesso, una funzione complessa f : U → C {\displaystyle f\colon U\to \mathbb {C} } {\displaystyle f\colon U\to \mathbb {C} } è differenziabile in senso complesso in un punto z 0 ∈ U {\displaystyle z_{0}\in U} {\displaystyle z_{0}\in U} se esiste il limite:[2]

f ′ ( z 0 ) = lim z → z 0 f ( z ) − f ( z 0 ) z − z 0 . {\displaystyle f'(z_{0})=\lim _{z\to z_{0}}{\frac {f(z)-f(z_{0})}{z-z_{0}}}.} {\displaystyle f'(z_{0})=\lim _{z\to z_{0}}{\frac {f(z)-f(z_{0})}{z-z_{0}}}.}

Tale limite va inteso in relazione alla topologia del piano. In altre parole, per ogni successione di numeri complessi che converge a z 0 {\displaystyle z_{0}} {\displaystyle z_{0}}, il rapporto incrementale deve tendere a un medesimo numero, indicato con f ′ ( z 0 ) . {\displaystyle f'(z_{0}).} {\displaystyle f'(z_{0}).} Se f {\displaystyle f} {\displaystyle f} è differenziabile in senso complesso in ogni punto z 0 ∈ U {\displaystyle z_{0}\in U} {\displaystyle z_{0}\in U}, si dice che è una funzione olomorfa su U {\displaystyle U} {\displaystyle U}.

Relazione tra derivata reale e complessa

[modifica | modifica wikitesto]

La relazione tra la differenziabilità di funzioni reali e funzioni complesse è data dal fatto che se una funzione complessa:

f ( z ) ≡ f ( x + i y ) = u ( x , y ) + i v ( x , y ) {\displaystyle f(z)\equiv f(x+iy)=u(x,y)+iv(x,y)} {\displaystyle f(z)\equiv f(x+iy)=u(x,y)+iv(x,y)}

è olomorfa allora u {\displaystyle u} {\displaystyle u} e v {\displaystyle v} {\displaystyle v} possiedono derivata parziale prima rispetto a x {\displaystyle x} {\displaystyle x} e y {\displaystyle y} {\displaystyle y} e soddisfano le equazioni di Cauchy-Riemann:[3]

∂ u ∂ x = ∂ v ∂ y , ∂ u ∂ y = − ∂ v ∂ x . {\displaystyle {\frac {\partial u}{\partial x}}={\frac {\partial v}{\partial y}},\qquad {\frac {\partial u}{\partial y}}=-{\frac {\partial v}{\partial x}}.} {\displaystyle {\frac {\partial u}{\partial x}}={\frac {\partial v}{\partial y}},\qquad {\frac {\partial u}{\partial y}}=-{\frac {\partial v}{\partial x}}.}

In modo equivalente, la derivata di Wirtinger ∂ f / ∂ z ¯ {\displaystyle \partial f/\partial {\overline {z}}} {\displaystyle \partial f/\partial {\overline {z}}} di f {\displaystyle f} {\displaystyle f} rispetto al complesso coniugato z ¯ {\displaystyle {\overline {z}}} {\displaystyle {\overline {z}}} di z {\displaystyle z} {\displaystyle z} è nulla.

Derivata destra e derivata sinistra

[modifica | modifica wikitesto]

La derivata destra di f {\displaystyle f} {\displaystyle f} in x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} è il numero:

f + ′ ( x 0 ) = lim h → 0 + f ( x 0 + h ) − f ( x 0 ) h . {\displaystyle f'_{+}(x_{0})=\lim _{h\to 0^{+}}{\frac {f(x_{0}+h)-f(x_{0})}{h}}.} {\displaystyle f'_{+}(x_{0})=\lim _{h\to 0^{+}}{\frac {f(x_{0}+h)-f(x_{0})}{h}}.}

Analogamente, la derivata sinistra di f {\displaystyle f} {\displaystyle f} in x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} è il numero:

f − ′ ( x 0 ) = lim h → 0 − f ( x 0 + h ) − f ( x 0 ) h . {\displaystyle f'_{-}(x_{0})=\lim _{h\to 0^{-}}{\frac {f(x_{0}+h)-f(x_{0})}{h}}.} {\displaystyle f'_{-}(x_{0})=\lim _{h\to 0^{-}}{\frac {f(x_{0}+h)-f(x_{0})}{h}}.}

Una funzione è derivabile in x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} se e solo se esistono finite e uguali le derivate destra e sinistra. Queste permettono inoltre di definire la derivabilità su un intervallo non aperto: se f {\displaystyle f} {\displaystyle f} è definita ad esempio nell'intervallo chiuso [ a , b ] {\displaystyle [a,b]} {\displaystyle [a,b]}, si dice che f {\displaystyle f} {\displaystyle f} è derivabile in [ a , b ] {\displaystyle [a,b]} {\displaystyle [a,b]} se è derivabile in ogni punto interno x ∈ ( a , b ) {\displaystyle x\in (a,b)} {\displaystyle x\in (a,b)} e se esistono le derivate destra e sinistra rispettivamente negli estremi x = a {\displaystyle x=a} {\displaystyle x=a} e x = b {\displaystyle x=b} {\displaystyle x=b}.

Le derivate destre e sinistre sono un caso particolare in R {\displaystyle \mathbb {R} } {\displaystyle \mathbb {R} } della derivata direzionale di Dini nelle direzioni parallele e versi concordi a 1 {\displaystyle 1} {\displaystyle 1} e − 1 {\displaystyle -1} {\displaystyle -1} (per rispettivamente derivata destra e sinistra). Infatti in R {\displaystyle \mathbb {R} } {\displaystyle \mathbb {R} } tutti i punti, visti come vettori in uno spazio vettoriale di dimensione 1 {\displaystyle 1} {\displaystyle 1}, sono paralleli e possono essere solo di verso concorde o discorde.

Notazioni

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Notazione per la differenziazione.

La prima notazione di derivata nel punto x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} che compare storicamente è:

( d f d x ) ( x 0 ) {\displaystyle \left({\frac {\mathrm {d} f}{\mathrm {d} x}}\right)_{(x_{0})}} {\displaystyle \left({\frac {\mathrm {d} f}{\mathrm {d} x}}\right)_{(x_{0})}}

ancora oggi usata in fisica. In alternativa, secondo la notazione di Lagrange viene indicata con:

f ′ ( x 0 ) , {\displaystyle f^{\prime }(x_{0}),} {\displaystyle f^{\prime }(x_{0}),}

secondo la notazione di Cauchy-Eulero con:

D ⁡ [ f ( x 0 ) ] {\displaystyle \operatorname {D} \left[{f}({x_{0}})\right]} {\displaystyle \operatorname {D} \left[{f}({x_{0}})\right]}

o più recentemente, per sottolineare che la derivata ha come argomento una funzione e non un punto, con

D ⁡ ( f ) ( x 0 ) , {\displaystyle \operatorname {D} \left(f\right)(x_{0}),} {\displaystyle \operatorname {D} \left(f\right)(x_{0}),}

secondo la notazione di Leibniz con:

d f ( x 0 ) d x {\displaystyle {\frac {\mathrm {d} f(x_{0})}{\mathrm {d} x}}} {\displaystyle {\frac {\mathrm {d} f(x_{0})}{\mathrm {d} x}}}

e secondo la notazione di Newton con:

f ˙ ( x 0 ) . {\displaystyle {\dot {f}}(x_{0}).} {\displaystyle {\dot {f}}(x_{0}).}

Derivata parziale

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Derivata parziale.

Nel caso di una funzione di più variabili, l'incremento della funzione rispetto a una sola variabile è la derivata parziale della funzione rispetto a tale variabile. Data una funzione vettoriale di più variabili F : E ⊂ R n → R m {\displaystyle \mathbf {F} :E\subset \mathbb {R} ^{n}\rightarrow \mathbb {R} ^{m}} {\displaystyle \mathbf {F} :E\subset \mathbb {R} ^{n}\rightarrow \mathbb {R} ^{m}} definita su un insieme aperto dello spazio euclideo R n {\displaystyle \mathbb {R} ^{n}} {\displaystyle \mathbb {R} ^{n}}, dette { e i } 1 ≤ i ≤ n {\displaystyle \{\mathbf {e} _{i}\}_{1\leq i\leq n}} {\displaystyle \{\mathbf {e} _{i}\}_{1\leq i\leq n}} e { u i } 1 ≤ i ≤ m {\displaystyle \{\mathbf {u} _{i}\}_{1\leq i\leq m}} {\displaystyle \{\mathbf {u} _{i}\}_{1\leq i\leq m}} le basi canoniche di R n {\displaystyle \mathbb {R} ^{n}} {\displaystyle \mathbb {R} ^{n}} e R m {\displaystyle \mathbb {R} ^{m}} {\displaystyle \mathbb {R} ^{m}} rispettivamente, la funzione può essere scritta nel seguente modo:

F ( x ) = ∑ i m F i ( x ) u i , x = ( x 1 , x 2 , … , x n ) ∈ E . {\displaystyle \mathbf {F} (\mathbf {x} )=\sum _{i}^{m}F_{i}(\mathbf {x} )\mathbf {u} _{i},\quad \mathbf {x} =(x_{1},x_{2},\dots ,x_{n})\in E.} {\displaystyle \mathbf {F} (\mathbf {x} )=\sum _{i}^{m}F_{i}(\mathbf {x} )\mathbf {u} _{i},\quad \mathbf {x} =(x_{1},x_{2},\dots ,x_{n})\in E.}

La componente i {\displaystyle i} {\displaystyle i}-esima della funzione è allora:

F i ( x ) = F ( x ) ⋅ u i , 1 ≤ i ≤ m . {\displaystyle F_{i}(\mathbf {x} )=\mathbf {F} (\mathbf {x} )\cdot \mathbf {u} _{i},\quad 1\leq i\leq m.} {\displaystyle F_{i}(\mathbf {x} )=\mathbf {F} (\mathbf {x} )\cdot \mathbf {u} _{i},\quad 1\leq i\leq m.}

Si definisce derivata parziale di F i {\displaystyle F_{i}} {\displaystyle F_{i}} rispetto alla variabile x j {\displaystyle x_{j}} {\displaystyle x_{j}} il limite:[4]

∂ F i ( x ) ∂ x j = lim t → 0 F i ( x + t e j ) − F i ( x ) t = lim t → 0 F i ( x 1 , x 2 , … x j + t , … , x n ) − F i ( x 1 , x 2 , … , x n ) t . {\displaystyle {\frac {\partial F_{i}(\mathbf {x} )}{\partial x_{j}}}=\lim _{t\to 0}{\frac {F_{i}(\mathbf {x} +t\mathbf {e} _{j})-F_{i}(\mathbf {x} )}{t}}=\lim _{t\to 0}{\frac {F_{i}(x_{1},x_{2},\ldots x_{j}+t,\ldots ,x_{n})-F_{i}(x_{1},x_{2},\ldots ,x_{n})}{t}}.} {\displaystyle {\frac {\partial F_{i}(\mathbf {x} )}{\partial x_{j}}}=\lim _{t\to 0}{\frac {F_{i}(\mathbf {x} +t\mathbf {e} _{j})-F_{i}(\mathbf {x} )}{t}}=\lim _{t\to 0}{\frac {F_{i}(x_{1},x_{2},\ldots x_{j}+t,\ldots ,x_{n})-F_{i}(x_{1},x_{2},\ldots ,x_{n})}{t}}.}

Tale limite è a volte chiamato limite del rapporto incrementale di f {\displaystyle f} {\displaystyle f} nel punto x {\displaystyle \mathbf {x} } {\displaystyle \mathbf {x} }, e viene denotato anche con D j F i {\displaystyle D_{j}F_{i}} {\displaystyle D_{j}F_{i}}. La derivata parziale di una funzione, o nel caso di funzione vettoriale di una sua componente, si effettua quindi considerando le variabili diverse da quella rispetto a cui si vuole derivare come costanti e calcolandone il rapporto incrementale.

Derivata direzionale

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Derivata direzionale.

La derivata direzionale di una funzione scalare f ( x ) = f ( x 1 , x 2 , … , x n ) {\displaystyle f(\mathbf {x} )=f(x_{1},x_{2},\ldots ,x_{n})} {\displaystyle f(\mathbf {x} )=f(x_{1},x_{2},\ldots ,x_{n})} lungo un vettore unitario u = ( u 1 , … , u n ) {\displaystyle \mathbf {u} =(u_{1},\ldots ,u_{n})} {\displaystyle \mathbf {u} =(u_{1},\ldots ,u_{n})} è la funzione definita dal limite:

D u ⁡ f ( x ) = lim h → 0 + f ( x + h u ) − f ( x ) h . {\displaystyle \operatorname {D} _{\mathbf {u} }{f}(\mathbf {x} )=\lim _{h\rightarrow 0^{+}}{\frac {f(\mathbf {x} +h\mathbf {u} )-f(\mathbf {x} )}{h}}.} {\displaystyle \operatorname {D} _{\mathbf {u} }{f}(\mathbf {x} )=\lim _{h\rightarrow 0^{+}}{\frac {f(\mathbf {x} +h\mathbf {u} )-f(\mathbf {x} )}{h}}.}

Se la funzione f {\displaystyle f} {\displaystyle f} è differenziabile in x {\displaystyle \mathbf {x} } {\displaystyle \mathbf {x} }, allora la derivata direzionale esiste lungo ogni vettore unitario u , {\displaystyle \mathbf {u} ,} {\displaystyle \mathbf {u} ,} e si ha:[5]

D u ⁡ f ( x ) = ∇ f ( x ) ⋅ u , {\displaystyle \operatorname {D} _{\mathbf {u} }{f}(\mathbf {x} )=\nabla f(\mathbf {x} )\cdot \mathbf {u} ,} {\displaystyle \operatorname {D} _{\mathbf {u} }{f}(\mathbf {x} )=\nabla f(\mathbf {x} )\cdot \mathbf {u} ,}

dove ∇ f {\displaystyle \nabla f} {\displaystyle \nabla f} al secondo membro rappresenta il gradiente di f {\displaystyle f} {\displaystyle f} e ⋅ {\displaystyle \cdot } {\displaystyle \cdot } il prodotto scalare euclideo. In x {\displaystyle \mathbf {x} } {\displaystyle \mathbf {x} } la derivata direzionale di f {\displaystyle f} {\displaystyle f} rappresenta la variazione di f {\displaystyle f} {\displaystyle f} lungo u {\displaystyle \mathbf {u} } {\displaystyle \mathbf {u} }.

Generalizzazioni della derivata

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Generalizzazioni della derivata.

Differenziabilità di una funzione

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Funzione differenziabile, Classe C di una funzione e Differenziale (matematica).
Una funzione da R {\displaystyle \mathbb {R} } {\displaystyle \mathbb {R} } in R {\displaystyle \mathbb {R} } {\displaystyle \mathbb {R} } è derivabile in un punto se è approssimabile vicino a quel punto da una retta. Tale retta deve quindi essere tangente al grafico della funzione. Questa nozione si estende in dimensioni arbitrarie, e prende il nome di funzione differenziabile.

Una funzione differenziabile in un punto è una funzione che può essere approssimata da una trasformazione lineare nel punto. Affinché ciò si verifichi è necessario che tutte le derivate parziali calcolate nel punto esistano, ovvero esistono finiti i limiti dei rapporti incrementali direzionali (dunque, se una funzione è differenziabile in un punto allora è derivabile nel punto). La proprietà di differenziabilità di una funzione consente di generalizzare il concetto di funzione derivabile a funzioni vettoriali di variabile vettoriale, e permette di individuare per ogni punto del suo grafico un iperpiano tangente.

Una funzione F : U → R m {\displaystyle \mathbf {F} \colon U\rightarrow \mathbb {R} ^{m}} {\displaystyle \mathbf {F} \colon U\rightarrow \mathbb {R} ^{m}} definita su un insieme aperto dello spazio euclideo R n {\displaystyle \mathbb {R} ^{n}} {\displaystyle \mathbb {R} ^{n}} è detta differenziabile in un punto x 0 {\displaystyle \mathbf {x} _{0}} {\displaystyle \mathbf {x} _{0}} del dominio se esiste una applicazione lineare L : R n → R m {\displaystyle \mathbf {L} :\mathbb {R} ^{n}\rightarrow \mathbb {R} ^{m}} {\displaystyle \mathbf {L} :\mathbb {R} ^{n}\rightarrow \mathbb {R} ^{m}} tale che valga l'approssimazione:

F ( x 0 + h ) − F ( x 0 ) = L ( x 0 ) h + r ( h ) , {\displaystyle \mathbf {F} (\mathbf {x} _{0}+\mathbf {h} )-\mathbf {F} (\mathbf {x} _{0})=\mathbf {L} (\mathbf {x} _{0})\mathbf {h} +\mathbf {r} (\mathbf {h} ),} {\displaystyle \mathbf {F} (\mathbf {x} _{0}+\mathbf {h} )-\mathbf {F} (\mathbf {x} _{0})=\mathbf {L} (\mathbf {x} _{0})\mathbf {h} +\mathbf {r} (\mathbf {h} ),}

dove r ( h ) {\displaystyle \mathbf {r} (\mathbf {h} )} {\displaystyle \mathbf {r} (\mathbf {h} )} si annulla all'annullarsi dell'incremento h {\displaystyle \mathbf {h} } {\displaystyle \mathbf {h} }. Tale condizione si può scrivere in modo equivalente:

lim h → 0 F ( x 0 + h ) − F ( x 0 ) − L ( x 0 ) h ‖ h ‖ = 0 . {\displaystyle \lim _{\mathbf {h} \to \mathbf {0} }{\frac {\mathbf {F} (\mathbf {x} _{0}+\mathbf {h} )-\mathbf {F} (\mathbf {x} _{0})-\mathbf {L} (\mathbf {x} _{0})\mathbf {h} }{\|\mathbf {h} \|}}=\mathbf {0} .} {\displaystyle \lim _{\mathbf {h} \to \mathbf {0} }{\frac {\mathbf {F} (\mathbf {x} _{0}+\mathbf {h} )-\mathbf {F} (\mathbf {x} _{0})-\mathbf {L} (\mathbf {x} _{0})\mathbf {h} }{\|\mathbf {h} \|}}=\mathbf {0} .}

Se la funzione F {\displaystyle \mathbf {F} } {\displaystyle \mathbf {F} } è differenziabile in x 0 {\displaystyle \mathbf {x} _{0}} {\displaystyle \mathbf {x} _{0}}, l'applicazione L {\displaystyle \mathbf {L} } {\displaystyle \mathbf {L} } è rappresentata dalla matrice jacobiana J F {\displaystyle J_{F}} {\displaystyle J_{F}}.

Il vettore:

L ( x 0 ) h = d F ( x 0 ) = J F h {\displaystyle \mathbf {L} (\mathbf {x} _{0})\mathbf {h} =\mathrm {d} \mathbf {F} (\mathbf {x} _{0})=J_{F}\mathbf {h} } {\displaystyle \mathbf {L} (\mathbf {x} _{0})\mathbf {h} =\mathrm {d} \mathbf {F} (\mathbf {x} _{0})=J_{F}\mathbf {h} }

si chiama differenziale di F {\displaystyle \mathbf {F} } {\displaystyle \mathbf {F} } in x 0 {\displaystyle \mathbf {x} _{0}} {\displaystyle \mathbf {x} _{0}} e L ( x 0 ) {\displaystyle \mathbf {L} (\mathbf {x_{0}} )} {\displaystyle \mathbf {L} (\mathbf {x_{0}} )} è la derivata totale della funzione F {\displaystyle \mathbf {F} } {\displaystyle \mathbf {F} }.

La funzione F {\displaystyle \mathbf {F} } {\displaystyle \mathbf {F} } è infine differenziabile se lo è in ogni punto del dominio.[6] In particolare, il teorema del differenziale totale afferma che una funzione è differenziabile in un punto se tutte le derivate parziali esistono in un intorno del punto per ogni componente della funzione e se sono inoltre funzioni continue. Se inoltre l'applicazione che associa x {\displaystyle \mathbf {x} } {\displaystyle \mathbf {x} } a L ( x ) {\displaystyle \mathbf {L} (\mathbf {x} )} {\displaystyle \mathbf {L} (\mathbf {x} )} è continua, la funzione si dice differenziabile con continuità.[7]

Continuità e derivabilità

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Funzione continua.

Il teorema di continuità asserisce che se f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} è derivabile in x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} allora f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} è anche continua in x 0 {\displaystyle x_{0}} {\displaystyle x_{0}}.

Non vale il teorema che si ottiene invertendo le ipotesi con le tesi: ad esempio, la funzione f ( x ) = | x | {\displaystyle f(x)=|x|} {\displaystyle f(x)=|x|} è continua su tutto il dominio, ma non è derivabile nel punto x 0 = 0 {\displaystyle x_{0}=0} {\displaystyle x_{0}=0}, perché limite destro e limite sinistro del rapporto incrementale non coincidono. La continuità di una funzione è quindi condizione necessaria, ma non sufficiente, per determinarne la derivabilità. Una funzione può inoltre essere derivabile (e quindi continua) in un punto p {\displaystyle p} {\displaystyle p}, ma essere discontinua in ogni punto intorno a p {\displaystyle p} {\displaystyle p}. Questo accade per funzioni come:

f ( x ) = { 0 ,  se  x ∈ Q , x 2 ,  se  x ∈ R ∖ Q . {\displaystyle f(x)={\begin{cases}0,&{\text{ se }}x\in \mathbb {Q} ,\\x^{2},&{\text{ se }}x\in \mathbb {R} \setminus \mathbb {Q} .\end{cases}}} {\displaystyle f(x)={\begin{cases}0,&{\text{ se }}x\in \mathbb {Q} ,\\x^{2},&{\text{ se }}x\in \mathbb {R} \setminus \mathbb {Q} .\end{cases}}}

essendo Q {\displaystyle \mathbb {Q} } {\displaystyle \mathbb {Q} } l'insieme dei numeri razionali e R {\displaystyle \mathbb {R} } {\displaystyle \mathbb {R} } l'insieme dei numeri reali, mentre il simbolo "\" denota la differenza tra insiemi. La funzione in esame ammette derivata in 0 {\displaystyle 0} {\displaystyle 0} (vale 0 {\displaystyle 0} {\displaystyle 0} il limite del rapporto incrementale) ma non è continua in nessun punto eccetto lo 0 {\displaystyle 0} {\displaystyle 0}. Notiamo che se invece una funzione è due volte derivabile in un punto, allora è continua in un intorno di quel punto.

Per mostrare che se f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} è derivabile in x 0 , {\displaystyle x_{0},} {\displaystyle x_{0},} allora è continua in x 0 {\displaystyle x_{0}} {\displaystyle x_{0}}, si considera l'uguaglianza precedente:

f ( x ) = f ( x 0 ) + f ′ ( x 0 ) ( x − x 0 ) + o ( x − x 0 ) , {\displaystyle f(x)=f(x_{0})+f^{\prime }(x_{0})(x-x_{0})+o(x-x_{0}),} {\displaystyle f(x)=f(x_{0})+f^{\prime }(x_{0})(x-x_{0})+o(x-x_{0}),}

da cui:

lim x → x 0 f ( x ) = lim x → x 0 f ( x 0 ) + f ′ ( x 0 ) ( x − x 0 ) + o ( x − x 0 ) = f ( x 0 ) . {\displaystyle \lim _{x\to x_{0}}f(x)=\lim _{x\to x_{0}}f(x_{0})+f^{\prime }(x_{0})(x-x_{0})+o(x-x_{0})=f(x_{0}).} {\displaystyle \lim _{x\to x_{0}}f(x)=\lim _{x\to x_{0}}f(x_{0})+f^{\prime }(x_{0})(x-x_{0})+o(x-x_{0})=f(x_{0}).}

Quindi la funzione è continua in x 0 {\displaystyle x_{0}} {\displaystyle x_{0}}. La stima lineare della funzione attorno a x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} costituisce una migliore approssimazione rispetto a:

f ( x ) = f ( x 0 ) + o ( 1 ) {\displaystyle f(x)=f(x_{0})+o(1)} {\displaystyle f(x)=f(x_{0})+o(1)}

garantita dalla sola continuità (qui o ( 1 ) ⟶ x → x 0 0 {\displaystyle o(1){\underset {x\to x_{0}}{\longrightarrow }}0} {\displaystyle o(1){\underset {x\to x_{0}}{\longrightarrow }}0}). Se la funzione è derivabile in x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} si può "scomporre" l'infinitesimo o ( 1 ) {\displaystyle o(1)} {\displaystyle o(1)} in un termine lineare e un infinitesimo di ordine superiore. Il teorema di Lagrange fornisce una diversa approssimazione (sempre lineare) nell'ipotesi che la funzione sia derivabile in un intorno di x 0 {\displaystyle x_{0}} {\displaystyle x_{0}}:

f ( x ) = f ( x 0 ) + f ′ ( ξ ) ( x − x 0 ) {\displaystyle f(x)=f(x_{0})+f^{\prime }(\xi )(x-x_{0})} {\displaystyle f(x)=f(x_{0})+f^{\prime }(\xi )(x-x_{0})}

per tutti gli x {\displaystyle x} {\displaystyle x} in tale intorno, e con ξ {\displaystyle \xi } {\displaystyle \xi } un dato punto in ( x 0 , x ) {\displaystyle (x_{0},x)} {\displaystyle (x_{0},x)} (o ( x , x 0 ) {\displaystyle (x,x_{0})} {\displaystyle (x,x_{0})}, se è un intorno sinistro). Benché ora l'approssimazione sia "esatta" (non ci sono termini infinitesimi che vengono trascurati), il teorema non è in grado di mostrare per quale ξ {\displaystyle \xi } {\displaystyle \xi } sia vera l'uguaglianza.

Funzioni non derivabili

[modifica | modifica wikitesto]
La funzione valore assoluto non è derivabile nell'origine, dove ha un punto angoloso

Una funzione continua può essere non derivabile. Ad esempio, una funzione continua può non essere derivabile in un punto isolato del dominio, in presenza di un punto angoloso, una cuspide o un flesso a tangente verticale. Esistono anche funzioni continue che presentano forme più complesse di non derivabilità, come ad esempio la funzione di Cantor. La funzione di Weierstrass è una funzione reale di variabile reale che ha la proprietà di essere continua in ogni punto ma di non essere derivabile in nessuno.

Teoremi

[modifica | modifica wikitesto]

Vengono enunciati di seguito alcuni teoremi e risultati significativi.

Regole di derivazione

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Regole di derivazione.

Siano f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} e g ( x ) {\displaystyle g(x)} {\displaystyle g(x)} funzioni reali di variabile reale x {\displaystyle x} {\displaystyle x} derivabili, e sia D {\displaystyle \mathrm {D} } {\displaystyle \mathrm {D} } l'operazione di derivazione rispetto a x {\displaystyle x} {\displaystyle x}:

D [ f ( x ) ] = f ′ ( x ) , D [ g ( x ) ] = g ′ ( x ) . {\displaystyle \mathrm {D} [f(x)]=f'(x),\qquad \mathrm {D} [g(x)]=g'(x).} {\displaystyle \mathrm {D} [f(x)]=f'(x),\qquad \mathrm {D} [g(x)]=g'(x).}
  • Regola della somma (linearità):
D [ α f ( x ) + β g ( x ) ] = α f ′ ( x ) + β g ′ ( x ) , α , β ∈ R . {\displaystyle \mathrm {D} [\alpha f(x)+\beta g(x)]=\alpha f'(x)+\beta g'(x),\qquad \alpha ,\beta \in \mathbb {R} .} {\displaystyle \mathrm {D} [\alpha f(x)+\beta g(x)]=\alpha f'(x)+\beta g'(x),\qquad \alpha ,\beta \in \mathbb {R} .}
  • Regola del prodotto (o di Leibniz):
D [ f ( x ) ⋅ g ( x ) ] = f ′ ( x ) ⋅ g ( x ) + f ( x ) ⋅ g ′ ( x ) . {\displaystyle \mathrm {D} [{f(x)\cdot g(x)}]=f'(x)\cdot g(x)+f(x)\cdot g'(x).} {\displaystyle \mathrm {D} [{f(x)\cdot g(x)}]=f'(x)\cdot g(x)+f(x)\cdot g'(x).}
  • Regola del quoziente:
D [ f ( x ) g ( x ) ] = f ′ ( x ) ⋅ g ( x ) − f ( x ) ⋅ g ′ ( x ) g ( x ) 2 . {\displaystyle \mathrm {D} \!\left[{f(x) \over g(x)}\right]={f'(x)\cdot g(x)-f(x)\cdot g'(x) \over g(x)^{2}}.} {\displaystyle \mathrm {D} \!\left[{f(x) \over g(x)}\right]={f'(x)\cdot g(x)-f(x)\cdot g'(x) \over g(x)^{2}}.}
  • Regola della funzione reciproca:
D [ 1 f ( x ) ] = − f ′ ( x ) f ( x ) 2 . {\displaystyle \mathrm {D} \!\left[{1 \over f(x)}\right]=-{f'(x) \over f(x)^{2}}.} {\displaystyle \mathrm {D} \!\left[{1 \over f(x)}\right]=-{f'(x) \over f(x)^{2}}.}
  • Regola della funzione inversa:
D [ f − 1 ( y ) ] = 1 f ′ ( x ) , {\displaystyle \mathrm {D} [f^{-1}(y)]={1 \over f'(x)},} {\displaystyle \mathrm {D} [f^{-1}(y)]={1 \over f'(x)},}
con:
y = f ( x ) , x = f − 1 ( y ) . {\displaystyle y={f(x)},\qquad x={f^{-1}(y)}.} {\displaystyle y={f(x)},\qquad x={f^{-1}(y)}.}
  • Regola della catena:
D [ f ( g ( x ) ) ] = f ′ ( g ( x ) ) ⋅ g ′ ( x ) . {\displaystyle \mathrm {D} \left[f\left(g(x)\right)\right]=f'\left(g(x)\right)\cdot g'(x).} {\displaystyle \mathrm {D} \left[f\left(g(x)\right)\right]=f'\left(g(x)\right)\cdot g'(x).}

Teorema di Fermat

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Teorema di Fermat sui punti stazionari.

Sia f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} una funzione derivabile, e quindi continua, in un punto x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} interno al dominio. Se x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} è un punto di massimo o di minimo per la funzione f , {\displaystyle f,} {\displaystyle f,} allora la derivata della funzione in x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} è nulla, cioè f ′ ( x 0 ) = 0 {\displaystyle f'(x_{0})=0} {\displaystyle f'(x_{0})=0}.

Non è indispensabile che x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} sia interno al dominio, essendo sufficiente che si tratti di un punto di accumulazione da destra e da sinistra per il dominio, mentre è essenziale porre che la funzione sia derivabile nel punto x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} in quanto non è possibile dedurne la derivabilità dalle altre ipotesi del teorema. Ogni punto in cui f ′ ( x ) {\displaystyle f'(x)} {\displaystyle f'(x)} si annulla (cioè è uguale a zero) è chiamato punto stazionario. I massimi e minimi relativi sono chiamati punti stazionari di f ′ ( x ) {\displaystyle f'(x)} {\displaystyle f'(x)}.

Questo teorema è molto usato nello studio di funzione, in quanto definisce la possibilità di avere un punto di massimo o di minimo dove la funzione derivata si annulla.

Teorema di Rolle

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Teorema di Rolle.

Sia f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} una funzione continua nell'intervallo chiuso [ a , b ] {\displaystyle [a,b]} {\displaystyle [a,b]} e derivabile nell'intervallo aperto ( a , b ) {\displaystyle (a,b)} {\displaystyle (a,b)}. Se f ( a ) = f ( b ) , {\displaystyle f(a)=f(b),} {\displaystyle f(a)=f(b),} allora esiste almeno un punto x 0 ∈ ( a , b ) {\displaystyle x_{0}\in (a,b)} {\displaystyle x_{0}\in (a,b)} in cui la derivata prima f ′ ( x ) {\displaystyle f'(x)} {\displaystyle f'(x)} si annulla.

Teorema di Lagrange

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Teorema di Lagrange.

Sia f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} una funzione continua in [ a , b ] {\displaystyle [a,b]} {\displaystyle [a,b]} e derivabile nell'intervallo aperto ( a , b ) {\displaystyle (a,b)} {\displaystyle (a,b)}. Allora esiste almeno un punto x 0 ∈ ( a , b ) {\displaystyle x_{0}\in (a,b)} {\displaystyle x_{0}\in (a,b)} tale per cui:

f ′ ( x 0 ) = f ( b ) − f ( a ) b − a . {\displaystyle f'(x_{0})={{f(b)-f(a)} \over {b-a}}.} {\displaystyle f'(x_{0})={{f(b)-f(a)} \over {b-a}}.}

Il teorema afferma che esiste almeno un punto ( x 0 , f ( x 0 ) ) {\displaystyle (x_{0},f(x_{0}))} {\displaystyle (x_{0},f(x_{0}))} del grafico della funzione in cui la retta tangente ha coefficiente angolare uguale a quello della corda della retta passante per i punti ( a , f ( a ) ) {\displaystyle (a,f(a))} {\displaystyle (a,f(a))} e ( b , f ( b ) ) {\displaystyle (b,f(b))} {\displaystyle (b,f(b))}. Si tratta di una generalizzazione del teorema di Rolle che analizza il caso in cui f ( a ) {\displaystyle f(a)} {\displaystyle f(a)} è diverso da f ( b ) {\displaystyle f(b)} {\displaystyle f(b)}.

Teorema di Cauchy

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Teorema di Cauchy (analisi matematica).

Siano f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} e g ( x ) {\displaystyle g(x)} {\displaystyle g(x)} funzioni continue in [ a , b ] {\displaystyle [a,b]} {\displaystyle [a,b]} e derivabili in ( a , b ) {\displaystyle (a,b)} {\displaystyle (a,b)} con g ′ ( x ) {\displaystyle g'(x)} {\displaystyle g'(x)} diversa da 0 per ogni punto dell'intervallo. Allora esiste almeno un punto x 0 ∈ ( a , b ) {\displaystyle x_{0}\in (a,b)} {\displaystyle x_{0}\in (a,b)} tale per cui:

f ′ ( x 0 ) g ′ ( x 0 ) = f ( b ) − f ( a ) g ( b ) − g ( a ) . {\displaystyle {f'(x_{0}) \over g'(x_{0})}={{f(b)-f(a)} \over {g(b)-g(a)}}.} {\displaystyle {f'(x_{0}) \over g'(x_{0})}={{f(b)-f(a)} \over {g(b)-g(a)}}.}

Considerando in particolare la funzione g ( t ) = t {\displaystyle g(t)=t} {\displaystyle g(t)=t}, si ottiene l'affermazione del teorema di Lagrange.

Con il teorema di Cauchy è inoltre possibile dimostrare la regola di de l'Hôpital.

Monotonia a partire dalla derivata

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Teorema di Lagrange.

Sia f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} continua in [ a , b ] {\displaystyle [a,b]} {\displaystyle [a,b]} e derivabile in ( a , b ) {\displaystyle (a,b)} {\displaystyle (a,b)}. Allora:

  • Per ogni x ∈ ( a , b ) {\displaystyle x\in (a,b)} {\displaystyle x\in (a,b)} si ha f ′ ( x ) ⩾ 0 {\displaystyle f'(x)\geqslant 0} {\displaystyle f'(x)\geqslant 0} se e solo se la funzione è crescente in ( a , b ) {\displaystyle (a,b)} {\displaystyle (a,b)}.
  • Per ogni x ∈ ( a , b ) {\displaystyle x\in (a,b)} {\displaystyle x\in (a,b)} si ha f ′ ( x ) ⩽ 0 {\displaystyle f'(x)\leqslant 0} {\displaystyle f'(x)\leqslant 0} se e solo se la funzione è decrescente in ( a , b ) {\displaystyle (a,b)} {\displaystyle (a,b)}.

La funzione può non essere strettamente crescente (o decrescente), e il teorema è direttamente ricavabile dall'enunciato di Lagrange.

Analogamente, valgono anche i fatti seguenti:

  • Se per ogni x ∈ ( a , b ) {\displaystyle x\in (a,b)} {\displaystyle x\in (a,b)} si ha f ′ ( x ) > 0 , {\displaystyle f'(x)>0,} {\displaystyle f'(x)>0,} allora la funzione è strettamente crescente in ( a , b ) {\displaystyle (a,b)} {\displaystyle (a,b)}.
  • Se per ogni x ∈ ( a , b ) {\displaystyle x\in (a,b)} {\displaystyle x\in (a,b)} si ha f ′ ( x ) < 0 , {\displaystyle f'(x)<0,} {\displaystyle f'(x)<0,} allora la funzione è strettamente decrescente in ( a , b ) {\displaystyle (a,b)} {\displaystyle (a,b)}.

Una funzione strettamente crescente non ha necessariamente derivata ovunque positiva. Ad esempio, f ( x ) = x 3 {\displaystyle f(x)=x^{3}} {\displaystyle f(x)=x^{3}} è strettamente crescente, ma ha derivata nulla nell'origine, dove c'è un punto di flesso.

Il teorema della funzione costante afferma che una funzione è costante in un intervallo [ a , b ] {\displaystyle [a,b]} {\displaystyle [a,b]} se e solo se è derivabile e la derivata è ovunque nulla nell'intervallo. Mentre la condizione necessaria è conseguenza della definizione di derivata (la derivata di una costante è uguale a zero), la sufficienza segue dal teorema di Lagrange.

Derivate di ordine superiore

[modifica | modifica wikitesto]

La derivata n {\displaystyle n} {\displaystyle n}-esima f ( n ) {\displaystyle f^{(n)}} {\displaystyle f^{(n)}} di una funzione f {\displaystyle f} {\displaystyle f} è la funzione che si ottiene derivando successivamente n {\displaystyle n} {\displaystyle n} volte la funzione f {\displaystyle f} {\displaystyle f}. Si definiscono così la derivata seconda, terza, e così via; e si usa generalmente una delle seguenti notazioni:

f ″ = f ( 2 ) = d 2 f d x 2 f ‴ = f ( 3 ) = d 3 f d x 3 ⋮ f ( n ) = d n f d x n . {\displaystyle {\begin{aligned}f''=f^{(2)}&={\frac {\mathrm {d} ^{2}f}{\mathrm {d} x^{2}}}\\f'''=f^{(3)}&={\frac {\mathrm {d} ^{3}f}{\mathrm {d} x^{3}}}\\&\vdots \\f^{(n)}&={\frac {\mathrm {d} ^{n}f}{\mathrm {d} x^{n}}}.\end{aligned}}} {\displaystyle {\begin{aligned}f''=f^{(2)}&={\frac {\mathrm {d} ^{2}f}{\mathrm {d} x^{2}}}\\f'''=f^{(3)}&={\frac {\mathrm {d} ^{3}f}{\mathrm {d} x^{3}}}\\&\vdots \\f^{(n)}&={\frac {\mathrm {d} ^{n}f}{\mathrm {d} x^{n}}}.\end{aligned}}}

Una funzione derivabile non è necessariamente derivabile n {\displaystyle n} {\displaystyle n} volte. Ad esempio, la funzione f ( x ) = x | x | {\displaystyle f(x)=x|x|} {\displaystyle f(x)=x|x|} ha una derivata prima, ma non una seconda: infatti, la derivata di f {\displaystyle f} {\displaystyle f} è f ′ ( x ) = 2 | x | {\displaystyle f'(x)=2|x|} {\displaystyle f'(x)=2|x|}, che non è a sua volta derivabile nell'origine.

La classe delle funzioni derivabili n {\displaystyle n} {\displaystyle n} volte e la cui derivata n {\displaystyle n} {\displaystyle n}-esima è continua si indica con C n {\displaystyle C^{n}} {\displaystyle C^{n}}.

Convessità

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Funzione convessa.

Sia f : [ a , b ] → R {\displaystyle f\colon [a,b]\to \mathbb {R} } {\displaystyle f\colon [a,b]\to \mathbb {R} } derivabile. Allora f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} è convessa se e solo se f ′ ( x ) {\displaystyle f'(x)} {\displaystyle f'(x)} è crescente in [ a , b ] {\displaystyle [a,b]} {\displaystyle [a,b]}. Se f {\displaystyle f} {\displaystyle f} possiede derivata seconda, allora la convessità della funzione è data dalla disequazione:

f ″ ( x ) ≥ 0. {\displaystyle f''(x)\geq 0.} {\displaystyle f''(x)\geq 0.}

Il cambiamento di segno della derivata seconda determina quindi un cambiamento di convessità della funzione e un relativo punto di flesso.

Significato geometrico della derivata

[modifica | modifica wikitesto]
La retta in rosso è la tangente al grafico della f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} nel punto ( x 0 , f ( x 0 ) ) {\displaystyle (x_{0},f(x_{0}))} {\displaystyle (x_{0},f(x_{0}))}

Il valore della derivata di f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} calcolata in x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} ha un significato geometrico: è il coefficiente angolare della retta tangente alla curva rappresentata dal grafico di f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} nel punto di coordinate ( x 0 , f ( x 0 ) ) {\displaystyle (x_{0},f(x_{0}))} {\displaystyle (x_{0},f(x_{0}))}. In altre parole, la derivata è il valore della tangente trigonometrica dell'angolo (convesso) che la retta tangente in x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} al grafico della funzione forma con l'asse delle ascisse (a patto che tale angolo non sia retto).

L'equazione della retta tangente in x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} risulta:

y = f ( x 0 ) + f ′ ( x 0 ) ( x − x 0 ) . {\displaystyle y=f(x_{0})+f'(x_{0})(x-x_{0}).} {\displaystyle y=f(x_{0})+f'(x_{0})(x-x_{0}).}

Più precisamente, se f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} è derivabile nel punto x 0 {\displaystyle x_{0}} {\displaystyle x_{0}}, allora esiste una funzione o ( x − x 0 ) {\displaystyle o(x-x_{0})} {\displaystyle o(x-x_{0})} definita in un intorno di x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} tale che:

f ( x ) = f ( x 0 ) + f ′ ( x 0 ) ( x − x 0 ) + o ( x − x 0 ) , {\displaystyle f(x)=f(x_{0})+f'(x_{0})(x-x_{0})+o(x-x_{0}),} {\displaystyle f(x)=f(x_{0})+f'(x_{0})(x-x_{0})+o(x-x_{0}),}

con:

lim x → x 0 o ( x − x 0 ) x − x 0 = 0 {\displaystyle \lim _{x\to x_{0}}{{o(x-x_{0})} \over {x-x_{0}}}=0} {\displaystyle \lim _{x\to x_{0}}{{o(x-x_{0})} \over {x-x_{0}}}=0}

e tale formula è l'espansione di Taylor di f ( x ) {\displaystyle f(x)} {\displaystyle f(x)} troncata al termine di primo grado. Si dice che o ( x − x 0 ) {\displaystyle o(x-x_{0})} {\displaystyle o(x-x_{0})} è un infinitesimo di ordine superiore alla funzione ( x − x 0 ) {\displaystyle (x-x_{0})} {\displaystyle (x-x_{0})}, e con questo si vuole esprimere l'idea che il termine o ( x − x 0 ) {\displaystyle o(x-x_{0})} {\displaystyle o(x-x_{0})} fornisce un contributo che diventa trascurabile rispetto agli altri termini quando ci si avvicina a x 0 {\displaystyle x_{0}} {\displaystyle x_{0}}. Si può anche dire che una funzione derivabile in x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} è approssimabile linearmente intorno a x 0 {\displaystyle x_{0}} {\displaystyle x_{0}} con la sua retta tangente in tale punto.

Se si definisce infatti o ( x − x 0 ) {\displaystyle o(x-x_{0})} {\displaystyle o(x-x_{0})}, avente lo stesso dominio di f {\displaystyle f} {\displaystyle f}, come:

o ( x − x 0 ) = f ( x ) − f ( x 0 ) − f ′ ( x 0 ) ( x − x 0 ) , {\displaystyle o(x-x_{0})=f(x)-f(x_{0})-f^{\prime }(x_{0})(x-x_{0}),} {\displaystyle o(x-x_{0})=f(x)-f(x_{0})-f^{\prime }(x_{0})(x-x_{0}),}

si verifica che:

lim x → x 0 o ( x − x 0 ) x − x 0 = lim x → x 0 ( f ( x ) − f ( x 0 ) x − x 0 − f ′ ( x 0 ) ) . {\displaystyle \lim _{x\to x_{0}}{{o(x-x_{0})} \over {x-x_{0}}}=\lim _{x\to x_{0}}\left({\frac {f(x)-f(x_{0})}{x-x_{0}}}-f^{\prime }(x_{0})\right).} {\displaystyle \lim _{x\to x_{0}}{{o(x-x_{0})} \over {x-x_{0}}}=\lim _{x\to x_{0}}\left({\frac {f(x)-f(x_{0})}{x-x_{0}}}-f^{\prime }(x_{0})\right).}

Ricordando che per x → x 0 {\displaystyle x\to x_{0}} {\displaystyle x\to x_{0}} allora x − x 0 → 0 {\displaystyle x-x_{0}\to 0} {\displaystyle x-x_{0}\to 0}, e quindi h = x − x 0 {\displaystyle h=x-x_{0}} {\displaystyle h=x-x_{0}}. Sostituendo questa ultima uguaglianza con la precedente equazione si ha:

lim h → 0 f ( x 0 + h ) − f ( x 0 ) h − f ′ ( x 0 ) = 0. {\displaystyle \lim _{h\to 0}{\frac {f(x_{0}+h)-f(x_{0})}{h}}-f^{\prime }(x_{0})=0.} {\displaystyle \lim _{h\to 0}{\frac {f(x_{0}+h)-f(x_{0})}{h}}-f^{\prime }(x_{0})=0.}

Esempio

[modifica | modifica wikitesto]

Una funzione espressa come serie di potenze ∑ n = 0 ∞ a n X n {\displaystyle \sum _{n=0}^{\infty }a_{n}X^{n}} {\displaystyle \sum _{n=0}^{\infty }a_{n}X^{n}} con raggio di convergenza r {\displaystyle r} {\displaystyle r} è continua e derivabile su tutto l'intervallo ( − r , r ) {\displaystyle (-r,r)} {\displaystyle (-r,r)}. La derivata può essere calcolata derivando termine a termine la serie nel modo seguente:

f ′ ( x ) = ∑ n = 1 ∞ n a n x n − 1 . {\displaystyle f'(x)=\sum _{n=1}^{\infty }na_{n}x^{n-1}.} {\displaystyle f'(x)=\sum _{n=1}^{\infty }na_{n}x^{n-1}.}

Tuttavia, in una serie di potenze si preferisce che n {\displaystyle n} {\displaystyle n} sia l'indice della potenza, quindi utilizzando uno shift diventa:

f ′ ( x ) = ∑ n = 0 ∞ ( n + 1 ) a n + 1 x n . {\displaystyle f'(x)=\sum _{n=0}^{\infty }{(n+1)}a_{n+1}x^{n}.} {\displaystyle f'(x)=\sum _{n=0}^{\infty }{(n+1)}a_{n+1}x^{n}.}

Questo tipo di derivata è importante per lo sviluppo di Taylor e Maclaurin.

Note

[modifica | modifica wikitesto]
  1. ^ Weisstein, Eric W. Derivative. From MathWorld, su mathworld.wolfram.com. URL consultato il 25-11-2012.
  2. ^ Rowland, Todd. Complex Differentiable. From MathWorld, su mathworld.wolfram.com. URL consultato il 25-11-2012.
  3. ^ Weisstein, Eric W. Cauchy-Riemann Equations. From MathWorld, su mathworld.wolfram.com. URL consultato il 25-11-2012.
  4. ^ W. Rudin, Pag. 216.
  5. ^ W. Rudin, Pag. 219.
  6. ^ W. Rudin, Pag. 214.
  7. ^ W. Rudin, Pag. 220.

Bibliografia

[modifica | modifica wikitesto]
  • Paolo Marcellini, Carlo Sbordone: Analisi Matematica Uno, Liguori Editore, 1998, ISBN 9788820728199
  • Nicola Fusco, Paolo Marcellini, Carlo Sbordone: Lezioni di Analisi Matematica Due, Zanichelli, 2020, ISBN 9788808520203
  • Walter Rudin, Principi di Analisi Matematica, Milano, McGraw-Hill, 1991, ISBN 88-386-0647-1.
  • (EN) Abramowitz, M. and Stegun, I. A. (Eds.). Handbook of Mathematical Functions with Formulas, Graphs, and Mathematical Tables, 9th printing. New York: Dover, p. 11, 1972.
  • (EN) Amend, B. Camp FoxTrot. Kansas City, MO: Andrews McMeel, p. 19, 1998.
  • (EN) Anton, Howard, Calculus: A New Horizon, 6th ed., New York, Wiley, 1999, ISBN 978-04-71153-06-1.
  • (EN) Beyer, W. H. Derivatives. CRC Standard Mathematical Tables, 28th ed. Boca Raton, FL: CRC Press, pp. 229–232, 19

Voci correlate

[modifica | modifica wikitesto]
  • Approssimazione lineare
  • Classe C di una funzione
  • Derivata mista
  • Derivata parziale
  • Derivata direzionale
  • Derivata simmetrica
  • Derivata totale
  • Derivazione complessa
  • Funzione differenziabile
  • Funzione olomorfa
  • Generalizzazioni della derivata
  • Gradiente
  • Integrale
  • Matrice jacobiana
  • Notazione per la differenziazione
  • Rapporto incrementale
  • Regole di derivazione
  • Sviluppo di Taylor

Altri progetti

[modifica | modifica wikitesto]

Altri progetti

  • Wikibooks
  • Wikizionario
  • Wikiversità
  • Collabora a Wikibooks Wikibooks contiene testi o manuali sulla derivata
  • Collabora a Wikizionario Wikizionario contiene il lemma di dizionario «derivata»
  • Collabora a Wikiversità Wikiversità contiene risorse sulla derivata

Collegamenti esterni

[modifica | modifica wikitesto]
  • derivata, su Treccani.it – Enciclopedie on line, Istituto dell'Enciclopedia Italiana. Modifica su Wikidata
  • derivata, su sapere.it, De Agostini. Modifica su Wikidata
  • (EN) derivative, su Enciclopedia Britannica, Encyclopædia Britannica, Inc. Modifica su Wikidata
  • (EN) Eric W. Weisstein, Derivative, su MathWorld, Wolfram Research. Modifica su Wikidata
  • (EN) Derivative, su Encyclopaedia of Mathematics, Springer e European Mathematical Society. Modifica su Wikidata
  • WIMS Function Calculator calcolo delle derivate online; questo sito permette anche di fare esercizi interattivi
  • Differenziazione calcolatrice, su easycalculation.com.
  • (EN) Online Derivatives Calculator.
  • Limite, derivate, integrali Directory con varie risorse sulle derivate
V · D · M
Analisi matematica
Calcolo infinitesimaleNumero reale · Infinitesimo · O-grande · Successione (di funzioni) · Successione di Cauchy · Teorema di Bolzano-Weierstrass · Stima asintotica · Limite (di una funzione · di una successione · Forma indeterminata) · Teorema dei due carabinieri · Limite notevole · Punto di accumulazione · Punto isolato · Intorno · Serie (di funzioni) · Criteri di convergenza · Limite di funzioni a più variabili
Analisi matematica
Analisi matematica
Studio della continuitàFunzione continua · Punto di discontinuità · Continuità uniforme · Funzione lipschitziana · Teorema di Bolzano · Teorema di Weierstrass · Teorema dei valori intermedi · Teorema di Heine-Cantor · Modulo di continuità · Funzione semicontinua · Continuità separata · Teorema di approssimazione di Weierstrass
Calcolo differenzialeDerivata · Differenziale · Regole di derivazione · Teorema di Fermat · Teorema di Rolle · Teorema di Lagrange · Teorema di Cauchy · Teorema di Darboux · Teorema di Taylor · Serie di Taylor · Funzione differenziabile · Gradiente · Jacobiana · Hessiana · Forma differenziale · Generalizzazioni della derivata · Derivata parziale · Derivata mista
IntegralePrimitiva · Integrale di Riemann · Integrale improprio · Integrale di Lebesgue · Teorema fondamentale · Metodi di integrazione · Tavole · Integrale multiplo, di linea (1ª specie · 2ª specie) e di superficie (di volume)
Studio di funzioneFunzione · Variabile · Dominio e codominio · Funzioni pari e dispari · Funzione periodica · Funzione monotona · Funzione convessa · Massimo e minimo di una funzione · Punto angoloso · Cuspide · Punto di flesso · Asintoto · Grafico di una funzione · Funzione iniettiva
DisuguaglianzeDisuguaglianza triangolare · Disuguaglianza di Cauchy-Schwarz · Bernoulli · Jensen · Hölder · Young · Minkowski
AltroApprossimazione di Stirling · Prodotto di Wallis · Funzione Gamma · Teorema delle funzioni implicite · Teorema della funzione inversa · Funzione hölderiana · Spazio metrico · Spazio normato · Intervallo · Insieme trascurabile · Insieme chiuso · Insieme aperto · Palla · Omeomorfismo · Omeomorfismo locale · Diffeomorfismo · Diffeomorfismo locale · Classe C di una funzione · Equazione differenziale · Problema di Cauchy
Controllo di autoritàThesaurus BNCF 32594 · LCCN (EN) sh2011005437 · GND (DE) 4233840-2 · J9U (EN, HE) 987007574837105171
  Portale Matematica: accedi alle voci di Teknopedia che trattano di matematica
Estratto da "https://it.wikipedia.org/w/index.php?title=Derivata&oldid=144092917"

  • Indonesia
  • English
  • Français
  • 日本語
  • Deutsch
  • Italiano
  • Español
  • Русский
  • فارسی
  • Polski
  • 中文
  • Nederlands
  • Português
  • العربية
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022