Elemento Finito
Autor
Mauricio Zelaya Aguilar
Last Updated
hace 9 años
License
Creative Commons CC BY 4.0
Resumen
Lecturas de la clase de Elemento Finito impartida en la Carrera de Matemática de la Universidad Nacional Autónoma de Honduras
Lecturas de la clase de Elemento Finito impartida en la Carrera de Matemática de la Universidad Nacional Autónoma de Honduras
\documentclass[a4paper,12pt]{article}
\usepackage[papersize={216mm,330mm},tmargin=20mm,bmargin=20mm,lmargin=20mm,rmargin=20mm]{geometry}
\usepackage[english]{babel}
\usepackage[utf8]{inputenc}
\usepackage{amsmath,amssymb,mathabx}%\for eqref
\usepackage{lscape}
\usepackage{graphicx}
\usepackage[colorinlistoftodos]{todonotes}
\usepackage{fancyhdr}
\pagestyle{fancy}
\fancyhf{}
\lhead{ Elemento Finito }
\chead{\thepage}
\rhead{Jorge Destephen Ph.D.}
\lfoot{El Andar del Borracho}
\cfoot{}
\rfoot{Editado por Mauricio Zelaya Aguilar }
\title{Universidad Nacional Autónoma de Honduras\\ Carrera de Matemática\\Lecturas de Elemento Finito}
\author{\setlength{\unitlength}{6mm}
\begin{picture}(10,10)
\put(1.1,0){\includegraphics[width=5.0cm]{ADB.jpg}}
\end{picture} \\ Jorge Destephen Ph.D. }
\date{Junio-Agosto, 2012}
\begin{document}
\maketitle
\subsubsection*{Contenido}
\begin{enumerate}
\item Introducción a la teoría de distribuciones.
\item Aplicación de las distribuciones en la solución de ecuaciones diferenciales(ED).
\item Método de elementos fínitos(MEF) para problemas en una, dos y tres dimensiones.
\end{enumerate}
\subsection*{Teoría de Distribuciones(TD)}
Podría considerarse como la teoría de las fuerzas concentradas.
\subsubsection*{Motivación}
Funciones clásicas $f:\mathbb{R}^{^{n}} \to\mathbb{R}$\\
Funciones continuas en $D\subset\mathbb{R}^n\sim C^{^{0}} (D)$\\
Funciones continuas por partes en $D \sim H^{^{0}} (D)$\\
Para todas estas funciones existe $\displaystyle \int_a^b f(x)dx$\\
Si $g(x)=0$ $\forall x\neq a$ en donde $\displaystyle a \in \mathbb{R}\Longrightarrow \int_{-\infty}^{+\infty}g(x)dx.$\\
Consideremos la función donde $a \in \mathbb{R}$ y $\epsilon>0$
\begin{equation}\label{eq:1}
h_\epsilon(x-a)=
\begin{cases}
0 & x>{a+\dfrac{\epsilon}{2}} \\
\dfrac{1}{\epsilon} & {a-\dfrac{\epsilon}{2}<x<a+\dfrac{\epsilon}{2} }
\end{cases}
\end{equation}
\begin{align*}
\int_{-\infty}^{+\infty} h_\epsilon(x-a)&=\int_{a-\frac{\epsilon}{2}}^{a+\frac{\epsilon}{2}} \frac{1}{\epsilon}dx\\
&=\frac{1}{\epsilon}\left(a+\frac{\epsilon}{2}-a+\frac{\epsilon}{2}\right)\\
&=1
\end{align*}
Lo cual implica que
$\displaystyle \lim_{\epsilon \to 0} \int_{-\infty}^{+\infty} h_\epsilon(x-a)dx = 1$ donde $\displaystyle \lim_{\epsilon \to 0} h_\epsilon(x-a)$ es una función con las siguientes características, llamemosla $\delta(x-a).$
$$\delta(x-a)=
\begin{cases}
0 & x \neq a \\
{+\infty} & x=a
\end{cases}$$
Tenemos una contradicción con la teoría clásica de funciones ya que
\begin{equation}\label{eq:2}
\int_{-\infty}^{+\infty} \delta(x-a)dx=1
\end{equation}
La conclusión es que una función con estas características \eqref{eq:1} y \eqref{eq:2} no es una función clásica.\\
Así, entonces necesitamos un nuevo concepto o teoría para eliminar está contradicción.
\subsection*{Funciones de Prueba}
\subsubsection*{Definición 1}
Una función de prueba $\phi(x)=\phi(x_{_{1}} ,\ldots,x_{_{n}} )$ es una función infinitamente derivable en $\mathbb{R}^{^{n}}$, y que es cero fuera de una región acotada(la región puede variar de función de prueba a función de prueba).
\\El espacio de las funciones de prueba en $\mathbb{R}^{^{n}}$ se denota por $C_{_{0}}^{^{\infty}} (\mathbb{R}^{^{n}}).$
\subsubsection*{Ejemplo 2}
\begin{enumerate}
\item Sea $\phi:\mathbb{R}\to\mathbb{R}$
\begin{align*}
\phi(x) &=\,
\begin{cases}
e^\frac{1}{x^{^{2}} - 1} & |x|<1 \\
0 & |x| \geq 1
\end{cases} \\
\phi'(x) &=\,
\begin{cases}
-\frac{2x}{ (x^{^{2}}-1)^{^{2}} } e^{^{\frac{1}{ x^{^{2}}-1 } }} & |x|<1 \\
0 & |x| \geq 1
\end{cases}
\end{align*}
Para probar que $\phi'(x)$ existe y es continua en todo $\mathbb{R}$ debemos probar que
$$\lim_{x \to 1^-} -\frac{2x}{( x^{^{2}}-1)^{^{2}} }e^{^{ \frac{1}{x^{^{2}}-1} }}=0$$
por L'Hopital se puede probar que
$\displaystyle \lim_{ x \to 1^- } \frac{ e^{^{ \frac{1}{ x^{^{2}}-1} }} }{ ( x^{^{2}}-1 )^{^{m}} } =0$
con lo cual combinado con inducción se puede probar que $\phi^{^{m}} (x)$ existe, para toda $m$ con la propiedad de ser cero fuera de $|x|<1.$
\item Sea $\phi:\mathbb{R}^{^{n}} \to\mathbb{R}$ y $x=( x_{_{1}},\ldots,x_{_{n}} )$\\
$$\phi(x)=
\begin{cases}
e^{^{ \frac{1}{ \|x\|^{^{2}} - 1} }} & \|x\|<1\\
0 & \|x\| \geq 1
\end{cases}$$
\item Sea $\phi_{_{1}} ,\phi_{_{2}} \in C_{_{0}}^{^{\infty}} ( \mathbb{R}^{^{n}} )$ entonces $c_{_{1}} \phi_{_{1}} +c_{_{2}} \phi_{_{2}} \in C_{_{0}}^{^{\infty}} ( \mathbb{R}^{^{n}} )$
\item Sea $\phi(x) \in C_{_{0}}^{^{\infty}} (\mathbb{R}^{^{n}})$ entonces $\phi \left( \dfrac{x-x_{_{0}} }{\epsilon} \right)$ es también función de prueba en $\mathbb{R}^{^{n}} \quad
\dfrac{ x-x_{_{0}} }{\epsilon} \in \mathbb{R}^{^{n}}$ con $\epsilon>0$
\begin{align*}
\left\| \frac{ x-x_{_{0}} }{\epsilon} \right\| &<a>0 \\
\| x-x_{_{0}} \| &<a\epsilon
\end{align*}
por lo tanto el nuevo radio es $a \epsilon.$
\end{enumerate}
\subsection*{Funcional Lineal}
\subsubsection*{Definición 3}
Decimos que $f$ es un funcional lineal en $C_{_{0}}^{^{\infty}}( \mathbb{R}^{^{n}} )$ si existe una regla de correspondencia que asigna a cada $\phi(x)\in C_{_{0}}^{^{\infty}}( \mathbb{R}^{^{n}} )$ un número real
$f(\phi)=\left< f,\phi\right>$ donde para todo
$$\left<f,\alpha_{_{1}} \phi_{_{1}} +\alpha_{_{2}} \phi_{_{2}} \right> = \alpha_{_{1}} \left<f_1,\phi_{_{1}}\right>+\left<f_{_{2}},\phi_{_{2}} \right>.$$
Sea
\begin{align*}
f&: C_{_{0}}^{^{\infty}}( \mathbb{R}^{^{n}} )\longrightarrow \mathbb{R}\\
&:\phi \longmapsto f(\phi)=\left<f,\phi\right>
\end{align*}
\subsubsection*{Ejemplo 4}
Sea
\begin{align}
f&: C_{_{0}}^{^{\infty}} ( \mathbb{R}^{^{n}} ) \longrightarrow \mathbb{R}\notag\\
&:\phi \longmapsto T(\phi)=\int_{ \mathbb{R}^{^{n}} } \, f(x) \phi(x) dx\notag
\end{align}
Si $f$ es diferenciable $0 \leq x \leq \pi$ entonces $f$ esta bien caracterizada por sus coeficientes de $Fourier$ de senos
\begin{align*}
b_{_{n}} &=\frac{2}{\pi} \int_0^\pi f(x) \sin(x)dx\\
&=f(\sin \, nx)\\
&=\left<f, \sin \, nx\right>.
\end{align*}
Es facil ver que \eqref{eq:3} y \eqref{eq:4} se prueban utilizando la linealidad
\begin{align}
\left<f,0\right>&=0\label{eq:3}\\
\left<f,\sum_{k=1}^m \alpha_{_{k}} \phi_{_{k}} \right> &= \sum_{k=1}^m \alpha_{_{k}} \left<f,\phi_{_{k}} \right> \label{eq:4}
\end{align}
\subsection*{Convergencia en el Espacio $C_{_{0}}^{^{\infty}}$}
\subsubsection*{Notación 5}
Sean $n$ variables independientes: $x=(x_{_{1}} ,\ldots,x_{_{n}} )$ y $k_{_{1}},\ldots, k_{_{n}} \in \mathbb{Z}_{_{0}}^{^{+}}$ en donde
$\mathcal{K}=(k_{_{1}},\ldots,k_{_{n}} )$ multiíndice de dimensión $n$.
\begin{align*}
|\mathcal{K}|&=k_{_{1}},\ldots,k_{_{n}} \\
D^{^{ \mathcal{K} }} &= \frac{ \partial^{^{ \mathcal{|K|} }} }{\partial x^{^{ k_{_{1}} }} \ldots \partial x_{_{n}}^{^{ k_{_{n}} }} }
\end{align*}
\subsubsection*{Ejemplo 6}
\begin{enumerate}
\item n=4 con $\mathcal{K}=(1,2,0,3)$
$\displaystyle D^{^{ 1,2,0,3}} = \frac{\partial^{^{6}} }{ \partial x_{_{1}} \partial x_{_{2}}^{^{2}}
\partial x_{_{4}}^{^{3}} }$ \\
El operador diferencial $L$ de orden $p$ en n-variables puede ser escrito así
$$L = \sum_{|\mathcal{K}|\leq p} \, a_{_{ \mathcal{K} }} (x) D^{^{ |\mathcal{K}| }}$$
$x=(x_{_{1}} , \ldots , x_{_{n}} ) \qquad a_{_{ \mathcal{K} }} (x)= a_{_{ k_{_{1}},\ldots,k_{_{n}} }} (x)$
\item n=1 p=2
$$L=a_{_{0}} (x)+a_{_{1}} (x)\frac{d}{dx}+a_{_{2}} (x)\frac{d}{ dx^{^{2}} }$$
\item n=2 p=2
$a_{\mathcal{K}}(x)=a_{_{ k_{_{1}}, k_{_{2}} }} ( x_{_{1}}, x_{_{2}} )$
\begin{align}
L&=\sum_{|\mathcal{K}| \leq 2} a_{_{ \mathcal{K} }} (x_{_{1}} ,x_{_{2}} ) D^{^{ \mathcal{K} }} \notag\\
&=a_{_{0,0}} ( x_{_{1}},x_{_{2}} )+a_{_{1,0}} (x_{_{1}}, x_{_{2}} )\frac{\partial}{\partial x_{_{1}} } +a_{_{0,1}} \frac{\partial}{\partial x_{_{2}} }+a_{_{1,1}} ( x_{_{1}},x_{_{2}} )\frac{\partial}{ \partial x_{_{1}} \partial x_{_{2}} }+a_{_{2,0}} (x_{_{1}}, x_{_{2}} ) \frac{ \partial^{^{2}} }{\partial x_{_{1}}^{^{2}} }\notag\\
&+a_{_{0,2}} (x_{_{1}},x_{_{2}} )\frac{ \partial^{^{2}} }{\partial x_{_{2}}^{^{2}} } \notag
\end{align}
\end{enumerate}
\subsection*{Soporte}
\subsubsection*{Definición 7}
El soporte de $f(x)$ es la cerradura del conjunto de puntos en $\mathbb{R}^{^{n}}$ en los cuales $f(x) \neq 0.$
\subsubsection*{Ejemplo 8}
Las funciones de prueba del primer ejemplo.\\
El soporte de $\phi(x)$ es la bola cerrada $|x| \leq 1.$
\subsection*{Sucesión Nula}
\subsubsection*{Definición 9}
Sea $\{ \phi_{_{1}}
(x),\ldots,\phi_{_{n}} (x),\ldots\}$ una sucesión de funciones en $C_{_{0}}^{^{ \infty }} ( \mathbb{R}^{^{n}} )$, la sucesión anterior es una sucesión nula en $C_{_{0}}^{^{ \infty }} ( \mathbb{R}^{^{n}} )$ si y solo si cumplen las siguientes condiciones:
\begin{enumerate}
\item Existe una región acotada fuera de la cual todas las $\phi_m(x)$ se hacen cero. El soporte de todas las $\phi_{_{m}} (x)$ están contenidas en una bola suficientemente grande.
\item Para cada multiíndice $\mathcal{K}$ de dimensión n tenemos que
$\displaystyle \lim_{m\to+\infty} \max_{ x \in \mathbb{R}^{^{n}} } \left| D^{^{ \mathcal{K} }} \phi_{_{m}} (x) \right|=0$
\end{enumerate}
$\phi_{_{m}} (x)\to 0$ uniformemente cuando $m\to{+\infty}$\\
$\dfrac{\partial \phi_{_{m}} (x)}{ \partial x_{_{i}} } \to 0$ uniformemente cuando $m\to +\infty$
\subsubsection*{Ejemplo 10}
\begin{enumerate}
\item Sea $\phi(x)$ una función de prueba, entonces $\left\{ \dfrac{1}{m} \phi(x) \right\}$ es una sucesión nula en $C_{_{0}}^{^{ \infty }} ( \mathbb{R}^{^{n}} )$\\
$\phi(x), \dfrac{1}{2}\phi(x), \dfrac{1}{3} \phi(x), \ldots, \dfrac{1}{m} \phi(x), \dots$\\
Si $\phi(x) \in C_{_{0}}^{^{ \infty }} ( \mathbb{R}^{^{n}} ) \Longrightarrow c\phi(x) \in C_{_{0}}^{^{ \infty }} ( \mathbb{R}^{^{n}} )$
\begin{enumerate}
\item El soporte de $\phi(x)$ es el soporte de $\dfrac{1}{m}\phi(x)$ (m=2,\ldots) este es el soporte común.\\
\item
\begin{align}
\lim_{ m \to +\infty} \max_{ x \in \mathbb{R}^{^{n}} } \left| D^{^{ \mathcal{K} }} \phi_{_{m}} (x) \right| &=\lim_{ m\to +\infty} \max \left|D^\mathcal{K} \frac {1}{m} \phi(x)\right|\notag\\
&=\lim_{ m \to +\infty } \frac{1}{m} \max_{ x \in \mathbb{R}^{^{n}} } \left| D^{^{ \mathcal{K} }} \phi(x) \right| \notag
\end{align}
\end{enumerate}
El máximo existe ya que $\phi(x)$ es continuamente derivable con soporte compacto\\
$\therefore \, \left\{\frac{1}{m} \phi(x)\right\}$ es una sucesión nula en ${C^\infty_0}(\mathbb{R}^n).$
\item Si $\phi(x)$ es una función de prueba, entonces $\left\{\frac{1}{m} \phi(\frac{x}{m})\right\}$ no es una sucesión nula en ${C^\infty_0}(\mathbb{R}^n)$.\\
Si $\phi(x) \in {C^\infty_0}(\mathbb{R}^n) \Longrightarrow \phi(\frac{x}{m}) \in {C^\infty_0}(\mathbb{R}^n)$\\
$\phi(x)$ tiene soporte compacto, donde $m=1,2,\ldots$
\begin{align}
|x|<r \Longrightarrow \left|\frac{x}{m}\right|<r \notag\\
|x|<rm\notag
\end{align}
No existe un soporte común, por lo tanto $\displaystyle \left\{\frac{1}{m} \phi(\frac{x}{m})\right\}$ no es una sucesión nula.
\end{enumerate}
\subsection*{Distribución}
\subsubsection*{Definición 11}
Un funcional lineal en ${C^\infty_0}(\mathbb{R}^n)$ es continuo siempre que $\{\phi_m(x)\}$ es una sucesión nula en ${C^\infty_0}(\mathbb{R}^n)$.\\
La sucesión numérica $\left<f,\phi_m\right>$ tiende a cero cuando $m\to{+\infty}.$\\
Un funcional lineal continuo en ${C^\infty_0}(\mathbb{R}^n)$ se llama distribución o función generalizada
\begin{align*}
\left<f,\phi_m\right>&=F(\phi_m(x))\\
\operatorname{dom}(f)&={C^\infty_0}(\mathbb{R}^n)
\end{align*}
\subsection*{Funciones Localmente Integrables(FLI)}
\subsubsection*{Definición 12}
Una función $f$ en $\mathbb{R}^n$ es FLI si $\displaystyle \int_\Omega |f|dx$ existe para cualquier $\Omega$ acotado en $\mathbb{R}^n$
\subsubsection*{Ejemplo 13}
\begin{enumerate}
\item Funciones continuas
\item Funciones continuas por partes
\item Sea $f(x)=\frac{1}{|x|^\alpha}$ con $x=(x_1,\ldots,x_n)$ es FLI si $\alpha>n$\\
caso $n=1$ $f:\mathbb{R}\longrightarrow\mathbb{R}$ $\Omega=[a,b]$ $x\geq 0$\\
$$\int_a^b \frac{1}{|x|^\alpha} dx=
\begin{cases}
\ln x|_a^b & \alpha=1\\
\frac{x^{-\alpha+1}}{-\alpha+1} & \alpha \neq 1
\end{cases}$$
Si $-\alpha+1>0$ entonces la integral existe\\
Si $-\alpha+1<0$ entonces la integral no siempre existe(por ejemplo si a=0)\\
$-\alpha+1>0 \Longrightarrow \alpha<1$ entonces $f(x)$ es FLI para $\alpha<1$
\end{enumerate}
\subsection*{Construcción de Distribuciones}
\subsubsection*{Teorema 14}
Una función localmente integrable $f(x)$ en $\mathbb{R}^n$ define (o genera) una distribución n-dimensional $f$ mediante la regla
\begin{align}
\left<f,\phi\right>&=\int_\mathbb{R}^n f(x)\phi(x)dx\notag\\
&=\int_{-\infty}^{+\infty} \ldots \int_{-\infty}^{+\infty} f(x_1,\ldots,x_n)
\phi(x_1,\ldots,x_n)dx_1\ldots dx_n\notag
\end{align}
\subsubsection*{Prueba}
Supongamos que $\left<f,\phi\right>$ es un funcional lineal, donde $f:\mathbb{R}\longrightarrow\mathbb{R}$\\
Es lineal por linealidad de la integral, faltaria probar que es continuo\\
$\{\phi_m(x)\}$ sucesión nula en ${C^\infty_0}(\mathbb{R}^n)$
\begin{align}
\left<f,\phi_m\right>&=\int_{\mathbb{R}^n} f(x)\phi_m(x)dx\notag\\
|\left<f,\phi_m\right>|&=\left|\int_{\mathbb{R}^n} f(x)\phi_m(x)dx\right|\notag\\
&\leq \int_{\mathbb{R}^n} |f(x)| |\phi_m(x)|dx\notag
\end{align}
Entonces $\displaystyle |\left<f,\phi_m\right>|\leq \max_{x\in\mathbb{R}^n} |\phi_m(x)|\int_\Omega |f(x)|dx$ con $\Omega$ soporte común de $\{\phi_m(x)\}$, la integral existe ya que $f$ es localmente integrable.
\begin{align}
\lim_{m\to{+\infty}} |\left<f,\phi_m\right>|&\leq \lim_{m\to{+\infty}} \max |\phi_m(x)| \int_\Omega |f(x)|dx\notag\\
&=0\label{eq:5}
\end{align}
La ecuación \eqref{eq:5} $\Longrightarrow$ el funcional lineal es continuo.\\
Por lo tanto $\displaystyle \left<f,\phi\right>=\int_{\mathbb{R}^n} f(x) \phi(x) dx$ es una distribución. $\qquad \diamondsuit$
\subsubsection*{Ejemplo 15}
Sea $f(x)=\sin(x)$, $f:\mathbb{R}\to\mathbb{R}$\\
$f$ es localmente integrable, entonces podemos obtener su distribución o función generalizada
$$\left<\sin,\phi\right>=\int \sin(x)\phi(x) dx$$
\subsubsection*{Propiedad 16}
\begin{enumerate}
\item Si $f_1(x), f_2(x)$ son funciones continuas diferentes, entonces generan funciones diferentes.
\item Si $f_1(x), f_2(x)$ coinciden excepto en un conjunto de medida cero, ellas generan las mismas distribuciones, es decir, dos funciones son iguales casi en todas partes si
$$\int_\Omega |f_1-f_2|dx=0$$
\end{enumerate}
\subsection*{Distribuciones Regulares y Singulares}
\subsubsection*{Definición 17}
Una distribución es regular si puede ser escrita en la forma del teorema anterior con $f(x)$ localmente integrable.\\
Todas las demás son distribuciones singulares.
\subsubsection*{Ejemplo 18}
\begin{enumerate}
\item Sea $f(x)=c$ constante, es localmente integrable\\
Genera la distribución regular
$\displaystyle \left<c,\phi\right>=\int_{\mathbb{R}^n} c\phi(x)dx$\\
\item Sea
$\displaystyle I_\Omega=
\begin{cases}
1 & x\in\Omega \quad \textrm{es localmente integrable}\\
0 & x\notin \Omega
\end{cases}$ \quad
genera la distribución regular
$$\left<I_\Omega,\phi\right>=\int_\Omega \phi(x)dx$$
\item Sea un punto $\xi$ en $\mathbb{R}^n$, consideremos el funcional lineal
$\left<\delta_\xi,\phi\right>=\phi(\xi)$
\begin{align}
\delta_\xi:& {C^\infty_0}(\mathbb{R}^n) \longrightarrow \mathbb{R}\notag\\
&:\phi \longmapsto \phi(\xi)\notag
\end{align}
Para probar que este funcional define una distribución debemos probar que es continuo, dado $\{\phi_m(x)\}$ sucesión nula
\begin{align}
\left<\delta_\xi,\phi\right>=\phi_m(\xi)& \Longrightarrow \lim_{m\to{+\infty}} \left<\delta_\xi,\phi_m\right>=
\lim_{m\to{+\infty}} \phi_m(\xi)=0\notag\\
&\Longrightarrow \left<\delta_\xi, \phi\right>=\phi(\xi)\notag
\end{align}
Donde $\left<\delta_\xi,\phi\right>=\phi(\xi)$ es una distribución, $\delta_\xi$ es una distribución singular.\\
Asumimos que es regular, entonces existe una función localmente integrable tal que $$\int_\mathbb{R}^n f(x)\phi(x)dx=\phi(0)$$\\
donde $\xi=0,\delta_0$ y para todo $\phi \in {C^\infty_0}(\mathbb{R}^n)$\\
Consideremos la función de prueba $\Psi_a(x)=\phi(\frac{x}{a})$
$$\phi(x)=
\begin{cases}
e^{\left(\frac{1}{|x|^2-1}\right)} & |x|<1\\
0 & |x|\geq 1
\end{cases}$$
$$\phi_a(x)=
\begin{cases}
e^{\left(\frac{a^2}{|x|^2-a^2}\right)} & |x|<a\\
0 & |x|\geq a
\end{cases}$$\\
$\Longrightarrow \Psi_a(0)=e^{-1}$\\
$\Psi_a(x) \leq \frac{1}{e}$ (máximo), por lo tanto
\begin{align*}
\left|\int_{\mathbb{R}^n} f(x)\Psi_a(x)dx\right|&\leq \frac{1}{e}\int_{|x|\leq a} |f(x)|dx\\
\lim_{a\to 0} \left|\int_{\mathbb{R}^n} f(x)\Psi_a(x)dx\right|&\leq \frac{1}{e} \lim_{a\to 0} \int_{|x|\leq a} |f(x)|dx
\end{align*}
Por definición de $\delta_0:$
\begin{align}
\int_{\mathbb{R}^n} f(x)\Psi_a(x)dx&=\Psi_a(0)\notag\\
&=\frac{1}{e}\label{eq:6}
\end{align}
$\displaystyle \eqref{eq:6} \Longrightarrow \lim_{a\to 0} \left|\int_{\mathbb{R}^n} f(x)\Psi_a(x)dx\right|=\frac{1}{e} \rightarrow\!\leftarrow$\\
Entonces $\delta$ es una distribución singular
$\left<\delta_0,\phi\right>=\phi(0)$
\end{enumerate}
\subsection*{Traslación de una Distribución}
Sea $f(x)$ localmente integrable en $\mathbb{R}^n$ y $a\in \mathbb{R}^n$ entonces $f(x-a)$ es localmente integrable, entonces podemos ver a $f(x-a)$ como una distribución
\begin{align}
\left<f(x-a),\phi\right>&=\int_{\mathbb{R}^n} f(x-a)\phi(x)dx\notag\\
&=\int_{\mathbb{R}^n} f(z)\phi(z+a)dz\notag\\
&=\left<f(x),\phi(x+a)\right>\notag
\end{align}
En realidad $\left<f(x),\phi(x+a)\right>$ define una distribución.
\begin{itemize}
\item [a.] Es un funcional lineal continuo.
\item [b.] Si $\{\phi_m(x)\}$ es una sucesión nula, también lo es
$\{\phi_m(x+a)\}$ entonces $\left<f(x),\phi(x+a)\right>\longrightarrow 0$ cuando $m\to 0$\\
Entonces $\left<f(x-a),\phi\right>=\left<f(x),\phi(x+a)\right>$ define una distribución.
\end{itemize}
\subsubsection*{Ejemplo 19}
Sea $\left<\delta_0,\phi\right>=\phi(0)$ donde $\delta_0=\delta(x) \qquad \delta_\xi(x)=\delta(x-\xi)$
\begin{align}
\left<\delta(x-\xi),\phi\right>&=\left<\delta(x),\phi(x+\xi)\right>\notag\\
&=\phi(0+\xi)\notag\\
&=\phi(\xi)\notag\\
\delta_\xi(x)&=\delta(x-\xi)\notag\\
&=\phi(\xi)\notag
\end{align}
\subsection*{Expansión o Contracción de Distribuciones}
Sea $f(x)$ localmente integrable. $f(\alpha x)$ es contracción si $\alpha \in (-1,1)$ con $\alpha \neq 0$\\
$f(\alpha x)$ es expansión si $|\alpha|>1 \Longrightarrow f(\alpha x)$ es localmente integrable.
\begin{align}
\left<f(\alpha x),\phi\right>&=\int_{\mathbb{R}^n} f(\alpha x)\phi(x)dx\notag\\
&=\int_{-\infty}^{+\infty} \ldots \int_{-\infty}^{+\infty} f(\alpha x_1,\ldots,\alpha x_n)\phi(x_1,\ldots,x_n)dx_1\ldots dx_n\notag\\
&=\frac{1}{|\alpha|^n}\left<f(x),\phi\left(\frac{x}{\alpha}\right)\right>\notag
\end{align}
Por definición será valido para cualquier distribución.
\subsubsection*{Ejemplo 20}
\begin{enumerate}
\item \textit{El dipolo eléctrico}. La distribución correspondiente a estas fuentes tiene la acción
$$\frac{1}{\epsilon}\left(\xi+\frac{\epsilon}{2}l\right)-\frac{1}{\epsilon} \left(\xi-\frac{\epsilon}{2}l\right)$$
El dipolo unitario con eje en $l$ se obtiene cuando $\epsilon \to 0$
\begin{align}
\lim_{\epsilon \to 0} \frac{1}{\epsilon}\left[\phi\left(\xi+\frac{\epsilon}{2}l\right)-\phi\left(\xi-\frac{\epsilon}{2}l\right)\right]&=\frac{d\phi(\xi)}{dl}\notag\\
&=\frac{d\delta(l-\xi)}{dl}\notag\\
\phi(\xi)&=\delta_\xi(x)\notag\\
&=\delta(x-\xi)\notag
\end{align}
El dipolo unitario es una distribución singular.
\item La multiplicación de una función infinitamente derivable por una distribución.\\
$a(x)$ localmente integrable y $f(x)$ localmente integrable.\\
¿Será $a(x)f(x)$ localmente integrable?
\begin{align}
a(x)&=\frac{1}{x^\frac{1}{2}}\notag\\
f(x)&=\frac{1}{x^\frac{1}{2}}\notag\\
a(x)f(x)&=\frac{1}{x^\frac{1}{2}} \frac{1}{x^\frac{1}{2}}\notag\\
&=\frac{1}{x}\notag
\end{align}
No es localmente integrable.\\
Entonces pedimos que $a(x) \in {C^\infty_0}(\mathbb{R}^n)$\\
Entonces $a(x)\phi(x) \in C^\infty_0(\mathbb{R}^n)$ con estas condiciones $a(x)f(x)$ si es localmente integrable.
\begin{align}
\Longrightarrow \left<a(x)f(x),\phi\right>&=\int_{\mathbb{R}^n} a(x)f(x)\phi(x)dx \notag\\
&=\int_{\mathbb{R}^n} f(x)[a(x)\phi(x)]dx\notag\\
&=\left<f(x),a(x)\phi(x)\right>\notag
\end{align}
Entonces $\left<a(x)f(x),\phi\right>=\left<f(x),a(x)\phi(x)\right>$ para cualquier distribución.
\item Sea $a(x)\delta(x)$
\begin{align}
<a(x)\delta(x),\phi>&=<\delta(x),a\phi>\notag\\
&=a\phi(0)\notag\\
&=a(0)\phi(0)\notag\\
&=a(0)\delta(x)\notag
\end{align}
$a(x)\delta(x)=a(0)\delta(x)$
\end{enumerate}
\subsection*{Derivada de una Distribución}
Sea $f(x),f'(x)$ localmente integrables
$\displaystyle \left<f'(x),\phi(x)\right>=\int_{\mathbb{R}^n} f'(x)\phi(x)dx$\\
Integrando por partes: $u=\phi(x), du=\phi'(x)dx, dv=f'(x)dx, v=f(x)$\\
\begin{align}
\int_{\mathbb{R}^n} f'(x)\phi(x)dx&=\phi(x)f(x)\Big|_{-\infty}^{+\infty}- \int_{\mathbb{R}^n} f(x)\phi'(x)dx\notag\\
&=-\int_{\mathbb{R}^n} f(x)\phi'(x)dx\notag\\
&=\left<f(x),-\phi'(x)\right>\notag
\end{align}
entonces definimos las derivadas de cualquier distribución como
$\displaystyle \left<f'(x), \phi(x)\right>=\left<f(x),-\phi'(x)\right>$\\
Las derivadas parciales
\begin{align}
\left<\frac{\partial f}{\partial x_i},\phi\right>&=\left<f,-\frac{\partial \phi}{\partial x_i}\right>\notag\\
\left<D^\mathcal{K}f,\phi\right>&=(-1)^\mathcal{K}\left<f,D^\mathcal{K}\phi\right>\notag
\end{align}
\subsubsection*{Ejemplo 21}
\begin{enumerate}
\item Sea $H(x)$ la función de \textit{Heaviside}
$$H(x)=
\begin{cases}
0 & x<0\\
1 & x>0
\end{cases}$$
No es numerable en todo $\mathbb{R}$, pero es localmente integrable\\
entonces $H(x)$ puede verse como una distribución regular\\
\begin{align}
\left<H,\phi\right>&=\int_{-\infty}^{+\infty} H(x)\phi(x)dx\notag\\
&=\int_{-\infty}^{+\infty} \phi(x)dx\notag\\
\left<H',\phi\right>&=\left<H,-\phi'(x)\right>\notag\\
&=\int_0^{+\infty} -\phi(x)dx\notag\\
&=-\phi(x)\Big|_0^{+\infty}\notag\\
&=-[0-\phi(0)]\notag\\
&=\phi(0)\notag\\
&=\delta(x)\notag
\end{align}
$\therefore H'(x)=\delta(x)$
\item Sea $f(x)=\sin(x)$ localmente integrable
\begin{align*}
\left<\sin,\phi\right>&=\int_{-\infty}^{+\infty} \sin(x)\phi(x)dx\\
\left<\sin',\phi\right>&=\left<\cos,\phi\right>
\end{align*}
\end{enumerate}
\subsection*{Cálculo para Funciones con Saltos}
Tenemos que $H'(x)=\delta(x)$
\begin{align}
<f',\phi>&=-\int_{-\infty}^{+\infty} f(x)\phi'(x)dx\notag\\
&=-\int_{-\infty}^a f(x)\phi'(x)dx-\int_a^{+\infty} f(x)\phi'(x)dx\notag\\
&=-\Big[ f(x)\phi(x)\Big|_{-\infty}^a -\int_{-\infty}^a f'(x)\phi(x)dx \Big]-\Big[ f(x)\phi(x)\Big|_a^{+\infty} -\int_a^{+\infty} f'(x)\phi(x)dx \Big]\notag\\
&=-\Big[ \lim_{x\to a^-} f(x)\phi(x) -\lim_{x\to a^+} f(x)\phi(x)\Big] + \int_{-\infty}^{+\infty} f(x)\phi(x)dx\notag\\
&=-\Big[\Big(\lim_{x\to a^-} f(x)-\lim_{x\to a^+} f(x)\Big)\phi(a)\Big] + \int_{-\infty}^{+\infty} f'(x)\phi(x)dx\notag\\
&=\Delta f(a)\delta(x-a)+\int_{-\infty}^{+\infty} f'(x)\phi(x)dx\notag
\end{align}
entonces en forma general para un número finito de puntos(con saltos) $a_1,\ldots,a_k)$ tenemos que
$$f'=[f']+\sum_{i=1}^k \Delta f_i\delta(x-a_i)$$\\
donde $f'$ es la derivada en sentido de distribución, mientras que $[f']$ es la derivada clásica, sin considerar los puntos donde la derivada clásica no existe.
\subsection*{Derivadas de Orden Superior}
Un punto de discontinuidad en $a=0$
\begin{align}
f'&=[f']+\Delta f^0(0)\delta(x)\notag\\
f''&=[f'']+\Delta f'(0)\delta(x)\notag\\
\vdots\notag\\
f^m&=[f^m]+\Delta f^{m-1}(0)\delta(x)+\Delta f^{m-2}(0)\delta'(x)+\ldots+ \Delta f^0(0)\delta^{m-1}(x)\notag
\end{align}
\subsubsection*{Ejemplo 22}
\begin{enumerate}
\item Sea $f(x)=e^{-x}$
\begin{align}
f(x)&=
\begin{cases}
e^{-x} & x>0\\
e^x & x<0
\end{cases}\notag\\
<f',\phi>&=f'(x)\notag\\
&=[f']+\Delta f(0)\delta(x)\notag\\
&=\begin{cases} -e^{-x} & x>0\\ e^x & x<0 \end{cases}\notag\\
<f'',\phi>&=[f'']+\Delta f'(0)\delta(x)+\Delta f^0(0)\delta'(x)\notag\\
&=[f'']+2\delta(x)\notag\\
f''(x)&=\begin{cases} e^{-x} & x>0\\ e^x & x<0 \end{cases}\notag\\
&=f\notag
\end{align}
$f''(x)=f(x)-2\delta(x)\Longrightarrow f''(x)-f(x)=2\delta(x)$ es una ecuación diferencial en distribuciones.
\item Sea
$$f(x)=
\begin{cases}
\cos(x) & |x|\leq \frac{\pi}{2}\\
0 & |x|>\frac{\pi}{2}
\end{cases}$$\\ calcular $f',f''$ y representarlas graficamente.\\
$\delta(x-\frac{\pi}{2})+\delta(x+\frac{\pi}{2})$
\item Demostrar que $(x^2+1)\delta'(x)=\delta'(x)$
\begin{align}
<a\delta',\phi>&=<\delta',a\phi>\notag\\
&=<\delta,-(a\phi)'>\notag\\
&=< \delta,-(a'\phi+a\phi')>\notag\\
&=<\delta,-(2x\phi+(x^2+1)\phi'))>\notag\\
&=-[2(0)\phi(0)+(0+1)\phi'(0)]\notag\\
&=-[-\phi'(0)]\notag\\
&=-[-\delta'(x)]\notag\\
&=\delta'(x)\notag
\end{align}
usando $\delta(x)=\phi(0), \delta'(x)=-\delta'(0), <\delta(x),\phi>=\phi(0)$
\end{enumerate}
\subsubsection*{Ejercicio 23}
\begin{enumerate}
\item Dado que $\displaystyle \phi(z) \in {C^\infty_0}(\mathbb{R}^n) \Longrightarrow \{\frac{1}{m}\phi(mx)\}$ no es una sucesión nula\\
$(\Longrightarrow) A=\{z\in \mathbb{R}^n|\phi(z)\neq 0\}$\\
$|z|<k$\\
$|mx|<k$\\
$|x|<\frac{k}{m}<k$ en donde $x\in\mathbb{R}^n$ y $m\to{+\infty}$\\
$(\Longleftarrow) \lim \max \left|D^\mathcal{K}\left(\frac{1}{m}\phi(mx\right)\right|=0$
\begin{align}
\max_{x \in \mathbb{R}^n} \left|\frac{1}{m}D^\mathcal{K}\phi(mx)\right|&=
\max_{x \in \mathbb{R}^n} \left|\frac{1}{m}\frac{\partial}{\partial x_i} \phi(mx)\right|\notag\\
&=\max_{x \in \mathbb{R}^n}\left|\frac{1}{m}m\frac{\partial}{\partial y} \phi(y)\right|\notag\\
&=\max_{x \in \mathbb{R}^n} \left|\frac{\partial}{\partial y}\phi(y)\right|\notag\\
& \neq \delta\notag
\end{align}
$\therefore$ no es una sucesión nula.
\item Probar que $\left<D^\mathcal{K}f,\phi\right>=(-1)^\mathcal{K} \left<f,D^\mathcal{K}\phi\right>$\\
Por definición
\begin{align}
\left<D^\mathcal{K}f,\phi\right>&=\left<\frac{\partial^K f}{\partial^{K_1}x_1\ldots\partial^{K_n}x_n},\phi\right>\notag\\
&=\left<\frac{\partial^{K_2+K_3+\ldots+K_n} f}{\partial^{K_2}x_2\ldots\partial^{K_n}x_n},\frac {(-1)^{K_1} \partial^{K_1} \phi}{\partial^{K_1}}\right>\notag\\
&=\left<\frac{\partial^{K_3+K_4+\ldots+K_n} f}{\partial^{K_1}x_3\ldots\partial^{K_n}x_n}, \frac {(-1)^{K_1} (-1)^{K_2} \partial^{K_1+K_2} \phi}{\partial^{K_1} x_1 \partial^{K_2} x_2}\right>\notag\\
&=\left<f,(-1)^{|\mathcal{K}|}D^\mathcal{K}\phi\right>\notag\\
&=(-1)^{|\mathcal{K}|}\left<f,D^\mathcal{K}\phi\right>\notag
\end{align}
\item Sea $a(x)$ una función infinitamente diferenciable y $f(x)$ una función arbitraria generalizada.\\
Mostrar que $[a(x)f(x)]'=a(x)f'(x)+a'(x)f(x)$
\begin{align}
\left<[a(x)f(x)]',\phi(x)\right>&=\left<a(x)f(x),-\phi(x)\right>\notag\\
&=\left<f(x),-a(x)\phi'(x)\right>\notag\\
&=\left<f(x),-\phi'(x)a(x)+a'(x)\phi(x)-a'(x)\phi(x)\right>\notag\\
&=\left<f(x,-[\phi'(x)a(x)+a'(x)\phi(x)]\right> +\left<f(x),a'(x)\phi(x)\right>\notag\\
&=\left<a(x)f(x),\phi(x)\right>+\left<a'(x)f(x),\phi(x)\right>\notag\\
&=a(x)f'(x)+a'(x)f(x)\notag
\end{align}
\end{enumerate}
\subsection*{Ecuaciones Diferenciales en Distribuciones}
\subsection*{Propiedades Locales}
\subsubsection*{Definición 24}
La distribución $f$ se dice que se anula en el conjunto abierto $\Omega$ si $\left<f,\phi\right>=0$ para todo $\phi \in C^\infty_0(\mathbb{R}^n)$ con soporte en $\Omega$. Dos distribuciones $f_1,f_2$se dice que son iguales en $\Omega$ si $f_1-f_2$ se anula en $\Omega$
\subsubsection*{Ejemplo 25}
Sea $\Omega$ el abierto que consiste de todo $\mathbb{R}^n$ sin el origen, entonces $\delta(x)$ se anula en $\Omega$\\
Consideremos la siguiente ecuación diferencial $u'=f$ en $\mathbb{R}$\\
En el sentido de distribuciones $\left<u',\phi\right>=\left<f,\phi\right>$\\
Iniciamos con el problema homogeneo $u'=0$\\
$\forall \quad \phi \in C^\infty_0(\mathbb{R}^n) \quad \left<u',\phi\right>=0 \Longrightarrow \left<u',-\phi'\right>=0$\\
$-\phi'$ funciones de prueba que son derivadas de otras funciones de prueba.\\
No es cierto que toda función de prueba se podrá escribir como la derivada de otra.\\
Sea $M\in C^\infty_0(\mathbb{R})$ el conjunto de funciones de prueba que son primera derivada de funciones de prueba.
\subsubsection*{Lema 26}
Sea $\phi \in C^\infty_0(\mathbb{R})$ donde $\phi \in M$ si y solo si
$\displaystyle \int_{-\infty}^{+\infty} \phi(x)dx=0$
\subsubsection*{Prueba}
$(\Longrightarrow) \phi \in M \Longrightarrow \phi=\Psi'$ donde $\Psi \in C_0^\infty$
\begin{align}
\int_{-\infty}^{+\infty} \phi(x)dx&=\int_{-\infty}^{+\infty} \Psi(x)dx\notag\\
&=\Psi(x)\Big|_{-\infty}^{+\infty}\notag\\
&=\Psi({+\infty})-\Psi({-\infty})\notag\\
&=0 \label{eq:7}
\end{align}
$\displaystyle (\Longleftarrow) \Psi=\int_{-\infty}^x \phi(x)dx$ por \eqref{eq:7} $=0$ y $\phi \in C^\infty_0 \Longrightarrow \Psi \in C^\infty_0$\\
derivando $\Psi'=\phi \Longrightarrow \phi \in M \qquad \diamondsuit$
\subsubsection*{Lema 27}
Sea $\phi(x)$ una función fija (arbitraria) de prueba tal que
$\displaystyle \int_{-\infty}^{+\infty} \phi_0(x)dx=1$
entonces para cada $\phi(x) \in C^\infty_0(\mathbb{R})$ existe una única constante $a$ y una única $\Psi \in M$ tales que
\begin{align}
\phi(x)&=a\phi_0(x)+\Psi(x)\notag\\
\left<u,\phi\right>&=a\left<u,\phi_0\right>+\left<u,\Psi\right>\notag
\end{align}
Si $u'=0$ entonces $\left<u,\Psi\right>=0$ donde $\Psi \in M$
\begin{align}
\left<u,\phi\right>&=a\left<u,\phi_0\right>\notag\\
&=\left<c,\phi\right>\notag\\
a&=\int_{-\infty}^x \phi(x)dx\notag\\
&=\left<1,\phi\right>\notag
\end{align}
Deel (Lema 27) entonces la solución $u'=0$ es una constante en el sentido de distribuciones\\
Con este resultado se puede determinar la solución de $u'=f$
$$\left<u,\phi\right>=c\left<1,\phi\right>+\left<u_p,\phi\right>$$
Con $\left<u_p,\phi\right>=-\left<f,\chi\right>$ y $\Psi=\chi'$ donde
$\displaystyle \chi=\int_0^x \Psi(s)ds$
\subsection*{Formula de Green e Identidad de Lagrange}
Teniendo a $L=a_2D^2+a_1D+a_0$ con $D,a_k(x) \in C^2(\mathbb{R})$\\
Sean $u,v \in C^2(\mathbb{R})$ entonces:
\begin{align}
\int_a^b vLudx&=\int_a^b v[a_2 D^2u+a_1 Du+a_0u]dx\notag\\
&=\int_a^b [a_2vD^2u+a_1vDU+a_0vu]dx\notag
\end{align}
Integrando por partes hasta eliminar las derivadas en $u$
\begin{align}
\int_a^b a_2vD^2udx& \notag\\
\int_a^b a_1vDudx\notag
\end{align}
Después de efectuar estos calculos nos queda la formula de $Green$
$$\int_a^b vLudx-\int_a^b uL^*vdx=J(u,v)\Big|_a^b$$\\
$L^*=a_2D^2+(2a'_2-a_1)D+(a''_2-a'_1+a_0)$ en donde $L^*$ es un operador formal autoadjunto\\
$J(u,v)=a_2(vu'-uv')+(a_1-a'_2)uv$ donde $u,v \in C^2(\mathbb{R})$\\
Si $L=L^*$ entonces L es el operador formal autoadjunto.\\
En forma diferencial derivando respecto a $a$ y $b$, entonces tenemos (haciendo b=x)\\
$vLu-uL^*v=\frac{d}{dx}J(u,v)$ identidad de $Lagrange$\\
En que caso $L=L^*$
\begin{align}
2a'_2-a_1=a_1& \Longrightarrow a'_2=a_1\notag\\
a''_2-a'_1+a_0=a_0& \Longrightarrow a''_2-a'_1=0\notag\\
& \Longrightarrow a'_2-a'_1=0\notag
\end{align}
cuando $a'_2=a_1$ se tiene que
\begin{align}
L^*&=a_2D^2+a'_2D+a_0\notag\\
&=D(a_2D)+a_0\notag
\end{align}
Este resultado puede generalizarse para ecuaciones diferenciales ordinarias de orden p
$$L=a_p(x)D^p+\ldots+a_1(x)D+a_0(x); a_k(x) \in C^p(\mathbb{R})$$
Si $\displaystyle u,v \in C^p(\mathbb{R}) \Longrightarrow vLu-uL^*v=\frac{d}{dx}J(u,v)$
\begin{align}
\int_a^b vLudx-\int_a^b uL^*vdx&=J(u,v)\Big|_a^b\notag\\
L^*v&=\sum_{m=0}^p (-1)^m D^m(a_mv)\notag\\
J(u,v)&=\sum_{m=1}^p \sum_{j+k=m-1}(-1)^k D^k(a_mv)D^ju\notag
\end{align}
Cuando $L=L^*$ solo puede ser autoadjunto si $L$ es par, si p es impar no puede ser autoadjunto. el coeficiente principal de L es $a_p(x)$ y el de $L^*$ es $-a_p(x)\neq a_p(x)$\\
Para el caso de ecuaciones diferenciales parciales en $\mathbb{R}^n$ tenemos relaciones como:
\begin{align}
v\nabla^2u-u\nabla^2v&=\nabla \cdotp(v\nabla u-u\nabla v)\notag\\
\int_\Omega (v\nabla^2u-u\nabla^2v)dx&=\int_\Gamma n\cdotp(v\nabla u-u\nabla v)ds\notag\\
\nabla^2&=\frac{\partial^2}{\partial x_1^2}+\cdots+\frac{\partial^2}{\partial x_n^2}\notag
\end{align}\\
$L=\nabla$ y $L^*=\nabla^2$ (también es eutoadjunto)\\
Para un operador lineal arbitrario de orden p
\begin{align}
Lu&=\sum_{|k|<p} a_k(x)D^ku\notag\\
L^*v&=\sum_{|k|\leq p} (-1)^|k| D^k(a_kv)\notag
\end{align}
$J$ es muy complicado para escribir una forma general\\
$x=(x_1,\ldots,x_n) \in \mathbb{R^n}$ y $\mathcal{K}=(k_1,\ldots,k_n)$
\subsubsection*{Ejemplo 28}
Sea $x \in \mathbb{R}^n, p=2, L=\nabla^2$. Probar que $L$ es autoadjunto
\begin{align}
L&:a_{0\ldots0}(x)=0\notag\\
&:a_{0 \ldots 010 \ldots 0}(x)=0\notag\\
&:a_{0 \ldots 010 \ldots 010 \ldots 0}(x)=0\notag\\
&:a_{20 \ldots 0}(x)=a_{0 \ldots 020 \ldots 0}(x)=1\notag
\end{align}
entonces $\displaystyle L^*v=\frac{\partial^2}{\partial x_1^2}+\cdots+\frac{\partial^2v}{\partial x_n^2}$
\subsection*{Soluciones en Sentido clásico, Débil y Distribucional}
Consideremos la ecuación diferencial ordinaria $\displaystyle \frac{du}{dx}=f(x)$ en $\Omega=(a,b).$\\
Si $f(x)$ es continua podemos definir lo que es una solución en sentido clásico.\\
$u(x)$ es una solución en sentido clásico de $\displaystyle \frac{du}{dx}=f(x)$ en $\Omega.$\\
Si $u(x)$ es continuamente derivable en $\Omega$ y satisface la ecuación diferencial.\\
Si $f(x)$ es continua $\Longrightarrow$ es localmente integrable y es cierto que:
\begin{align}
\int \frac{du}{dx}\phi(x)dx&=\int_a^b f(x)\phi(x)dx\notag\\
&=u(x)\phi(x)\Big|_a^b-\int_a^b u(x)\phi'(x)dx\notag\\
&=u(b)\phi(b)-u(a)\phi(a)-\int_a^b u(x)\phi'(x)dx\notag\\
-\int_a^b u\phi'dx&=\int_a^b f\phi dx\notag\\
-\left<u,\phi'\right>&=\left<f,\phi\right>\notag
\end{align}
Donde $f(x) \in C^\infty_0(\mathbb{R}^n)$ con soporte en $\Omega$ y $\phi \in C^\infty_0(\mathbb{R}^n)$\\
la integración por partes $\displaystyle w=\phi(x) \quad dw=\phi'(x)dx \quad dz=\frac{du}{dx}dx \quad z=u$\\
Si $f$ es localmente integrable, entonces una función localmente integrable es una solución débil de $\displaystyle \frac{du}{dx}=f$ si y solo si satisface:
\begin{align}
-\left<u,\phi'\right>&=\left<f,\phi\right>\notag\\
-\int_\Omega u\phi'dx&=\int_\Omega f\phi dx\notag
\end{align}
También se puede interpretar la solución en sentido distribucional de la siguiente manera:\\
Si $f$ es una distribución, decimos que una distribución $u(x)$ es solución de
$\displaystyle \frac{du}{dx}=f(x)$ si y solo si $-\left<u,\phi(x)\right>=\left<f,\phi\right>$ para todo
$\phi\in C^\infty_0(\mathbb{R}^n).$
\begin{align}
\frac{du}{dx}&=f(x)\notag\\
\left<\frac{du}{dx},\phi\right>&=\left<f(x),\phi\right>\notag\\
-\left<u,\phi\right>&=\left<f(x),\phi\right>\notag
\end{align}
Asumiendo $a_k(x) \in C^\infty$, la distribución $Lu$ siempre existe para cualquier distribución $u$
\begin{align}
L&=\sum_{|k|\leq p} a_k(x)D^k\notag\\
<Lu,\phi>&=<u,L^*\phi>\notag\\
L^*&=\sum_{|k|\leq p} (-1)^{|k|}D^k a_k\notag\\
Lu&=f\notag
\end{align}
Entonces en distribuciones la solución debe satisfacer $<u,L^*\phi>=<f,\phi>$ para todo $C^\infty_0(\mathbb{R}^n)$
\subsubsection*{Definición 29}
Sea $f$ localmente integrable, una función localmente integrable $u$ que satisface $\left<u,L^*\phi\right>=\left<f,\phi\right>$ se llama solución débil de $Lu=f$ en $\Omega$
\subsubsection*{Teorema 30}
Sea $f(x)$ continua en $\Omega$ entonces:
\begin{itemize}
\item[a.] Una solución clásica de $Lu=f$ en $\Omega$ es también una solución débil.
\item[b.] Cualquier solución débil en $\Omega$ que tenga $p$ derivadas continuas es una solución clásica.
\end{itemize}
\subsubsection*{Demostración}
a. f continua $\Longrightarrow$ localmente integrable\\
Si $Lu=f$ en $\Omega$
\begin{align}
\left<Lu,\phi\right>&=\left<f,\phi\right>\notag\\
&=\int_\mathbb{R} Lu\phi dx\notag\\
&=\int_\mathbb{R} \phi Ludx\notag\\
&=\int_\mathbb{R} uL^*\phi dx+J(u,\phi)\Big|_{-\infty}^{+\infty}\notag\\
&=\int_\mathbb{R} uL^*\phi dx\notag\\
&=\left<u,L^*\phi\right>\notag
\end{align}
Entonces $\left<u,L^*\phi\right>=\left<f,\phi\right>$, entonces $u$ es solución débil \qquad $\Box$\\
b. Si $\left<u,L^*\phi\right>=\left<f,\phi\right>$ por la formula de $Green$
\begin{align}
&\Longrightarrow \left<u,L^*\phi\right>=\left<Lu,\phi\right> \notag\\
&\Longrightarrow \left<Lu,\phi\right>=\left<f,\phi\right>\notag\\
&\Longrightarrow \int_\Omega (Lu-f)\phi dx=0\notag
\end{align}
$\left<Lu-f,\phi\right>=0$ por linealidad de las distribuciones, para todo $\phi \in C^\infty_0(\mathbb{R}^n)$\\
Necesitamos probar que $Lu-f=0$, asumiendo lo contrario.\\
Existe un punto $x_0$ tal que $(Lu-f)(x_0)\neq 0$ (asumamos $(Lu-f)(x_0)>0$)\\
$f$ es continua y como u es continuamente derivable hasta orden $p$\\
$\Longrightarrow$ Lu es continua y por lo tanto $Lu-f$ también es continua\\
$\Longrightarrow$ existe una vecindad de $\Omega$ alrededor de $x_0$ tal que $(Lu-f)(x)>0$\\
Escogiendo $\phi$ tal que $\phi(x)>0$ en esa vecindad, entonces $(Lu-f)\phi(x)>0$ en esa vecindad contenida en $\Omega$ lo cual nos lleva a que
$\displaystyle \int_\Omega (Lu-f)\phi dx>0 \longrightarrow \! \longleftarrow$
$\therefore Lu-f=0 \Longrightarrow Lu=f$ en $\Omega$, es decir $u$ es solución clásica. \qquad $\Box$
\subsubsection*{Ejemplo 31}
\begin{enumerate}
\item Sea $\displaystyle x\frac{du}{dx}=0$ donde $x \in \mathbb{R}$\\
$u(x)=H(x)$ es una solución débil
\begin{align}
\left< x\frac{dH}{dx},\phi\right>&=\left<\frac{dH}{dx},x\phi(x)\right>\notag\\
&=\left<\delta(x),x\phi(x)\right>\notag\\
&=x\phi(0)\notag\\
&=0\cdotp \phi(0)\notag\\
&=0\notag
\end{align}
Entonces $u=H(x)$ es solución en sentido distribucional, pero como $H$ es localmente integrable entonces es solución en sentido débil, pero no existe solución clásica en todo $\mathbb{R}$.
\item Dado $x \in \mathbb{R}^2$ y $\displaystyle \frac{\partial u}{\partial x_1} =0$\\
Solución clásica $u(x_1,x_2)=g(x_2)$\\
Solución débil $u(x_1,x_2)=H(x_2)$
\begin{align}
\left< \frac{\partial H(x_2)}{\partial x_1},\phi\right>&=-\left< H(x_2),\frac{\partial \phi} {\partial x_1} \right>\notag\\
&=\int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} H(x_2) \frac{\partial \phi} {\partial x_1} dx_1 dx_2 \notag\\
&=\int_{-\infty}^{+\infty} H(x_2)dx_2 \int_{-\infty}^{+\infty} \frac{\partial \phi} {\partial x_1} dx_1 \notag\\
&=-\int_{-\infty}^{+\infty} dx_2 \phi(x_1,x_2)\Big|_{-\infty}^{+\infty} \notag\\
&=0 \notag
\end{align}
\end{enumerate}
\subsection*{Soluciones Fundamentales}
\subsubsection*{Definición 32}
Una solución fundamental para $L$ con polo en $\xi$ es una solución de la ecuación $Lu=\delta(x-\xi)$ donde $\xi$ se trata como un parámetro.
\subsubsection*{Consideración 33}
Se debe interpretar en el sentido de distribuciones:\\
Una solución de $Lu=\delta(x-\xi)$ se denota por $E(x,\xi)$\\
$E$ satisface $Lu=\delta_\xi$ si y solo si $<E,L^* \phi>=\phi(\xi)$\\
$L$ con coeficientes constantes, es suficiente encontrar la solución fundamental con polo en 0 (E(x,0)) y con una traslación obtener $E(x,\xi)=E(x-\xi,0)$
\subsubsection*{Ejemplo 34}
Determinar una solución fundamental $E$ donde $q$ constante y $x\in\mathbb{R}$ para $\displaystyle -\frac{d^2}{dx^2}+q^2$
$$L=-\frac{d^2}{dx^2}+q^2$$
Como los coeficientes son constantes es suficiente determinar $E(x,0) \qquad LE=\delta(x)$\\
Supongamos que $\displaystyle E(x,0)=\frac{e^{-q|x|}}{2q}$\\
Para probar que es solución fundamental simplemente debemos mostrar que
$\left<E,L^*\phi\right>=\phi(0)$\\
Sabemos que $a_2=-1 \quad a_1=0 \quad a_0=q^2 \Longrightarrow L^*=L$ ya que $a'_2=a_1=0$
\begin{align}
\left<E,L^*\phi\right>&=\int_{-\infty}^{+\infty} EL^*\phi dx\notag\\
&=\int_{-\infty}^0 EL^*\phi dx+\int_0^{+\infty} EL^*\phi dx\notag\\
&=\int_{-\infty}^0 \phi LEdx-J(E,\phi)\Big|_{-\infty}^0+\int_0^{+\infty} \phi LEdx-J(E,\phi) \Big|_0^{+\infty}\notag\\
&=\int_{-\infty}^0 \phi L \left(\frac{e^{-q|x|}}{2q}\right)dx-J(E,\phi)\Big|_{-\infty}^0+\int_0^{+\infty} \phi L \left(\frac{e^{-q|x|}}{2q}\right)dx-J(E,\phi) \Big|_0^{+\infty}\notag\\
&=0+\left[\frac{\phi(0)}{2}-\frac{\phi'(0)}{2q}-0\right]+0+\left[0+ \frac{\phi(0)}{2}+\frac{\phi'(0)}{2q}\right]\notag\\
&=\phi(0)\notag
\end{align}
\newpage
\subsection*{Método de Elemento Finito}
Para introducir el método consideramos un problema modelo, un problema de valor de frontera de segundo orden
\begin{equation} \label{eq:01}
\begin{cases}
\displaystyle -\frac{d}{dx} \left( p(x) \frac{du}{dx} \right) +r(x) u = f(x) & a < x < b \\
u(a) = A & u(b)=B
\end{cases}
\end{equation}
donde $p \in C'[a,b] \quad r \in C[a,b] \quad f \in L^{^{2}} [a,b]$ \\
$p(x) \geq C_{_{0}} > 0 \quad r(x) \geq 0 \quad \forall \, x \in [a,b]$ \\
Mucho de lo desarrollado para este modelo se puede extender hasta problemas de ecuaciones diferenciales parciales, el método de elementos finitos aproxima la solución de una ecuación diferencial en la forma de funciones (generalmente polinómicas) definidas por partes \\
%%%Figura EF12
Aqui consideraremos dos técnicas para la construcción de las aproximaciones del método de elementos finitos
\begin{description}
\item [Principio de \textit{Rayleigh-Ritz}] El problema de valor de frontera es planteado como un problema variacional (restringido a problemas simétricos)
\item [Principio de \textit{Galerkin}] Es una formulación débil del problema de ecuaciones diferenciales, es de aplicación más general
\end{description}
\subsubsection*{Definición}
Una función $f:[a,b] \longrightarrow \mathbb{R}$ se llama absolutamente continua si para todo $\epsilon > 0$ existe $\delta > 0$ tal que para toda familia $\{ ( a_{_{i}} , b_{_{i}} ) \}$ de intervalos disjuntos en $[a,b]$ tales que $\displaystyle \sum_{i=1}^n \, ( b_{_{i}} - a_{_{i}} )$ se cumple $\displaystyle \sum_{i=1}^n \, | f ( b_{_{i}} ) - f ( a_{_{i}} ) | < \epsilon$ \\
se denota por $AC [a,b]$ al conjunto de todas las funciones absolutamente continuas en $[a,b]$
\subsubsection*{Propiedades}
\begin{enumerate}
\item $AC [a,b] \subseteq C [a,b]$
\item $AC [a,b]$ es un espacio vectorial
\item Sean $f \in L'[a,b]$
$$F(x) = \int_a^x \, f(t) \, dt \Longrightarrow F \in AC [a,b]$$
\item $AC [a,b] \subseteq B V [a,b] \quad V$: variacional acotado
\item Sea $f \in AC [a,b] \Longrightarrow f$ es derivable en todo punto de $[a,b]$
\item Sea $f \in AC [a,b]$, supongamos que $f'=0$ casi todo punto $\Longrightarrow\, f$ es constante en $[a,b]$
\item Sea $\displaystyle f \in AC [a,b] \Longrightarrow f(x) = f(a) + \int_a^x \, f'(x) \, dx$
\end{enumerate}
\subsubsection*{Definición}
Para un entero positivo $k$, definimos el espacio de \textit{Sobolev} $H^{^{k}} (a,b)$ como el conjunto de funciones reales $v$, definidas en $[a,b]$ tal que $v$ y todas sus derivadas de orden hasta $k-1$ son absolutamente continuas en $[a,b]$
\begin{align*}
v^{^{k}} &=\, \frac{ d^{^{k}} v }{ dx^{^{k}} } \in L^{^{2}} (a,b) \\
v \in L^{^{2}} (a,b) \iff \| v \|_{_{2}} &=\, \| v \|_{_{ L^{^{2}} (a,b) }} \\
&=\, \left( \int_a^b \, | v(x) |^{^{2}} \, dx \right)^{1/2} < +\infty \\
\intertext{ equiparamos $H^{^{k}} (a,b)$ con la norma de \textit{Sobolev} }
\| v \|_{_{ H^{^{k}} (a,b) }} &=\, \left( \sum_{ m=0 } \, \left\| v^{^{n}} \right\|_{_{ L^{^{2}} (a,b) }}^{^{2}} \right)^{1/2}
\end{align*}
los espacios de \textit{Sobolev} $H'(a,b) \,,\, H^{^{2}} (a,b)$ serán muy importantes en está introducción al método de elemento finito \\
$H' (a,b)$ si $v \in H'(a,b)$ \\
$\begin{cases}
v \in AC [a,b] \\
v \in L^{^{2}} [a,b]
\end{cases}$
$$\| v \|_{_{ H'(a,b) }} = \left( \| v \|_{_{ L^{^{2}} }}^{^{2}} + \left\| v^{^{ (1) }} \right\|_{_{ L^{^{2}} }}^{^{2}} \right)^{^{1/2}}$$
%%%Figura EF13
\subsubsection*{Definición}
\begin{enumerate}
\item Dados $A,B$ números reales. $H'_{_{E}} (a,b)$ denotará el conjunto de funciones $v \in H'(a,b)$ tal que $v(a)=A$ y $v(b)=B$
\item $H'_{_{0}} (a,b)$ denotará el conjunto de funciones $v \in H'(a,b)$ tal que $v(a)=0$ y $v(b)=0$
\end{enumerate}
\subsection*{Principio de Rayleigh-Ritz y Galerkin}
El principio de \textit{Rayleigh-Ritz} consiste en convertir el problema de valor de frontera, \eqref{eq:01} en un problema variacional que involucra la minimización de un funcional cuadrático en un espacio de funciones \\
definamos el funcional cuadrático $\mathcal{J} : H'_{_{E}} (a,b)\longrightarrow \mathbb{R}$ de la siguiente forma
$$\mathcal{J} (w) = \frac{1}{2} \int_a^b \, \left[ p(x) (w')^{^{2}} + r(x) w^{^{2}} \right] \, dx - \int_a^b \, f(x) w(x) \, dx$$
consideramos ahora el problema variacional. \\
Determinar $u \in H'_{_{E}} (a,b)$ tal que $\displaystyle \mathcal{J} (u) = \min_{ w \in H'_{_{E}} (a,b) } \, \mathcal{J} (w)$ \\
a este problema variacional lo llamaremos el principio de \textit{Rayleigh-Ritz} \\
definiendo $\displaystyle \mathcal{A} (w,v) = \int_a^b \, [ p(x) w'(x) v'(x) + r(x) w(x) v(x) ] \, dx $ \\
recordando el producto interior en $L^{^{2}} (a,b)$
$$\left< w,v \right> = \int_a^b \, w(x) v(x) \, dx$$
entonces $\mathcal{J} (w) = \dfrac{1}{2} \mathcal{A} (w,w) - \left< f,w \right>$ donde $w \in H'_{_{E}} (a,b)$ \\
la aplicación $\mathcal{A}:\, H'(a,b) \times H'(a,b) \longrightarrow \mathbb{R}$ es función bilineal.
\subsection*{Principio de Galerkin}
A la identidad $\mathcal{A} (u,v) = \left< f,v \right> \quad \forall \, v \in H'_{_{0}} (a,b)$ se le llama principio de \textit{Galerkin}
\subsubsection*{Teorema}
Una función $u \in H'_{_{E}} (a,b)$ minimiza $\mathcal{J} ( \cdot )$ en $H'_{_{E}} (a,b)$ si y solo si $\mathcal{A} (u,v) = \left< f,v \right> \quad \forall \, v \in H'_{_{0}} (a,b)$ \\
el principio de \textit{Rayleigh-Ritz} se cumple si y solo si se cumple el principio de \textit{Galerkin}. \\
\textbf{Demostración} \\
$\Longrightarrow$ Asumimos $u \in H'_{_{E}} (a,b)$ minimiza $\mathcal{J} ( \cdot )$ en $H'_{_{E}} (a,b)$ o sea que $\mathcal{J} (u) \leq \mathcal{J} (w) \quad \forall \, w \in H'_{_{E}} (a,b)$ \\
$w = u + \lambda v \quad v \in H'_{_{0}} (a,b) \quad \lambda \in \mathbb{R}$ \\
como $u \in H'_{_{E}} (a,b) \Longrightarrow w \in H'_{_{E}} (a,b)$ \\
$\lambda > 0$ y $v$ puede ser positivo o negativo
\begin{align*}
\mathcal{J} (u) \leq \mathcal{J} (w) &=\, \mathcal{J} ( u + \lambda v ) \\
&=\, \frac{1}{2} \mathcal{A} ( u + \lambda v , u + \lambda v ) - \left< f , u + \lambda v \right> \\
&=\, \frac{1}{2} \left[ \mathcal{A} (u,u) + \lambda \mathcal{A} (u,v) + \lambda \mathcal{A} (v,u) + \lambda^{^{2}} \mathcal{A} (v,v) \right] - \lambda \left< f,v \right> - \left< f,u \right> \\
&=\, \underbrace{ \frac{1}{2} \mathcal{A} (u,u) - \left< f,u \right> }_{ \mathcal{J} (u) } + \lambda \mathcal{A} (u,v) +\frac{1}{2} \lambda^{^{2}} \mathcal{A} (v,v) - \lambda \left< f,v \right> \\
&=\, \mathcal{J} (u) + \lambda [ \mathcal{A} (u,v) - \left< f,v \right> ] +\frac{1}{2} \lambda^{^{2}} \mathcal{A} (v,v) \\
\Longrightarrow\, 0 &\leq\, \lambda [ \mathcal{A} (u,v) - \left< f,v \right> ] +\frac{1}{2} \lambda^{^{2}} \mathcal{A} (v,v) \\
\Longrightarrow\, 0 &\leq\, \mathcal{A} (u,v) - \left< f,v \right> +\frac{1}{2} \lambda \mathcal{A} (v,v) \\
\intertext{ tomamos el limite cuando $\lambda \to 0$ }
0 &\leq\, \mathcal{A} (u,v) - \left< f,v \right> \\
\intertext{ ahora consideremos que $v = -v$ }
\Longrightarrow\, 0 &\leq\, - \mathcal{A} (u,v) + \left< f,v \right> +\frac{1}{2} \lambda \mathcal{A} (v,v) \\
\intertext{ tomando $\lim \, \lambda \to 0$ }
0 &\leq\, - \mathcal{A} (u,v) + \left< f,v \right> \\
0 &\geq\, \mathcal{A} (u,v) - \left< f,v \right>
\end{align*}
$\therefore \, \mathcal{A} (u,v) - \left< f,v \right> = 0 \quad \forall \, v \in H'_{_{0}} (a,b) \qquad \Box$
\subsection*{Principio de Galerkin y Problema de Valor de Frontera}
\subsubsection*{Definición}
Si una función $u \in H'_{_{E}} (a,b)$ satisface el principio de \textit{Galerkin}, se dice que es una solución débil al problema de valor de frontera \eqref{eq:01} y el principio de \textit{Galerkin} es referido con la formulación débil del problema de valor de frontera \eqref{eq:01}
\subsubsection*{Teorema 14.2}
Si $u \in H^{^{2}} (a,b) \cap H'_{_{E}} (a,b)$ es una solución débil del problema de valor de frontera \eqref{eq:01}, entonces $u$ es una solución débil de dicho problema, es decir $\mathcal{A} (u,v) = \left< f,v \right> \quad \forall \, v \in H'_{_{0}} (a,b)$ \\
\textbf{Demostración} \\
$\begin{cases}
\displaystyle -\frac{d}{dx} \left[ p(x) \frac{du}{dx} \right] + r(x) u = f(x) \\
u(a)=A & u(b)=B
\end{cases}$ \\
multipliquemos la ecuación diferencial por $v \in H'_{_{0}} (a,b)$
$$-\frac{d}{dx} \left[ p(x) \frac{du}{dx} \right] \, v(x) + r(x) u(x) v(x) = f(x) v(x)$$
integrando $\displaystyle \int_a^b \, -\frac{d}{dx} \left[ p(x) \frac{du}{dx} \right] \, v(x) \, dx + \int_a^b \, r(x) u(x) v(x) \, dx = \int_a^b \, f(x) v(x) \, dx$ \\
integrando por partes una vez
\begin{align*}
\int_a^b \, -\frac{d}{dx} \left[ p(x) \frac{du}{dx} \right] \, v(x) \, dx &=\, \overbrace{ -v(x) p(x) \frac{du}{dx} }^0 + \int_a^b \, p(x) u' v' \, dx & w &=\, v(x) & z &=\, -p(x) \frac{du}{dx} \\
&=\, \int_a^b \, p(x) u' v' \, dx & w' &=\, v' & dz &=\, -\frac{d}{dx} \left[ p(x) \frac{du}{dx} \right] \, dx
\end{align*}
entonces
\begin{align*}
\int_a^b \, p(x) u'(x) v'(x) \, dx + \int_a^b \, r(x) u(x) v(x) \, dx &=\, \int_a^b \, f(x) v(x) \, dx \quad \forall \, v \in H'_{_{0}} (a,b) \\
\underbrace{ \int_a^b \, [ p(x) u'(x) v'(x) + r(x) u(x) v(x) ] \, dx }_{ \mathcal{A} (u,v) } &=\, \int_a^b \, f(x) v(x) \, dx \\
&=\, \left< f,v \right>
\end{align*}
$\therefore \, \mathcal{A} (u,v) = \left< f,v \right> \quad \forall \, v \in H'_{_{0}} (a,b) \qquad \Box$ \\
lo inverso del teorema 14.2 no es cierto en general al menos que $u$ sea lo suficientemente suave
\subsubsection*{Teorema 14.3}
El problema de valor de frontera \eqref{eq:01} posee a lo más una solución débil en $H'_{_{E}} (a,b)$ \\
\textbf{Demostración} \\
Supongamos que $u, w \in H'_{_{E}} (a,b)$ son dos soluciones debiles diferentes al problema de valor de frontera \eqref{eq:01} \\
$u-w \in H'_{_{0}} (a,b)$
\begin{align*}
(u-w)(a) &=\, u(a)-w(a) & (u-w)(b) &=\, u(b)-w(b) \\
&=\, A-A & &=\, B-B \\
&=\, 0 & &=\, 0
\end{align*}
por ser soluciones debiles, en particular $v=u-w$
$$\mathcal{A} (u-w , u-w )=0$$
como $p(x) \geq C_{_{0}} > 0$ y $r(x) \geq 0$
\begin{align*}
\mathcal{A} (v,v) &=\, \int_a^b \, \left[ p(x) (v')^{^{2}} + r(x) v^{^{2}} \right] \, dx \\
&\geq\, \int_a^b \, \left[ C_{_{0}} (v')^{^{2}} + \underbrace{ r(x) v^{^{2}} }_{>0} \right] \, dx \\
&\geq\, C_{_{0}} \int_a^b \, (v')^{^{2}} \, dx \\
\Longrightarrow\, \mathcal{A} (u-w , u-w ) &=\, 0 \\
&\geq\, C_{_{0}} \int_a^b \, [ (u-w)' ]^{^{2}} \, dx \\
\Longrightarrow \int_a^b \, [ (u-w)' ]^{^{2}} \, dx &=\, 0
\end{align*}
$(u-w)' = 0$ casi todas partes \\
como $u, w \in H'_{_{0}} (a,b)$ entonces son absolutamente continuas \\
$u-w$ también es absolutamente continua \\
si $(u-w)'=0$ en casi todo punto $\Longrightarrow\, u-w = \text{cte}$ en $[a,b]$ \\
$(u-w) (a) = (u-w)(b) = 0 \Longrightarrow u-w = 0$ en $[a,b]$ \\
$\therefore \, u=w \qquad \Box$
\subsection*{Formulación del Método de Elemento Finito}
El método de elementos finitos se basa en la construcción de una solución aproximada $u^{^{h}}$ al problema mediante la minimización de $\mathcal{J} ( \cdot )$ en un subespacio de dimensión finita $S_{_{E}}^{^{h}}$ de $H'_{_{E}} (a,b)$ donde $S_{_{E}}^{^{h}} \subset H'_{_{E}} (a,b)$ \\
una manera sencilla de construir $S_{_{E}}^{^{h}}$ es seleccionando una función $\Psi \in H'_{_{E}} (a,b)$; por ejemplo
$$\left. \Psi (x) = \frac{B-A}{b-a} (x-a)+A \right/ \Psi (a)=A \, \wedge \, \Psi (b)=B$$
y un conjunto finito $\varphi_{_{j}} (x) \quad (j=1, \ldots, n-1)$ linealmente independientes en $H'_{_{0}} (a,b)$ para $n \geq 2$, entonces definimos
$$S_{_{E}}^{^{h}} = \left\{ v^{^{h}} \in H'_{_{E}} (a,b) \,:\, v^{^{h}} (x) = \Psi (x) + \sum_{i=1}^n \, v_{_{i}} \varphi_{_{i}} (x) \quad v = \left( v_{_{1}} , \ldots , v_{_{n-1}} \right)^{^{T}} \right\}$$
$v \in \mathbb{R}^{^{n-1}} \,,\, v_{_{i}}$ son los coeficientes de la combinación lineal \\
asi se plantea el problema de aproximación de \textit{Rayleigh-Ritz}: determinar $u^{^{h}} \in S_{_{E}}^{^{h}}$ tal que
$$\mathcal{J} \left( u^{^{h}} \right) = \min_{ w^{^{h}} \in S_{_{E}}^{^{h}} } \, \mathcal{J} \left( w^{^{h}} \right)$$
\subsubsection*{Teorema 14.4}
Una función $u^{^{h}} \in S_{_{E}}^{^{h}}$ minimiza $\mathcal{J} ( \cdot )$ en $S_{_{E}}^{^{h}}$ si y solo si $\mathcal{A} \left( u^{^{h}} , v^{^{h}} \right) = \left< f , v^{^{h}} \right> \quad \forall \, v^{^{h}} \in S_{_{0}}^{^{h}}$
$$S_{_{0}}^{^{h}} (a,b) = \left\{ v^{^{h}} \in H'_{_{0}} (a,b) \,:\, v^{^{h}} (x) = \sum_{i=1}^{n-1} \, v_{_{i}} \varphi_{_{i}} (x) \right\}$$
al problema de determinar $u^{^{h}}$ tal que $\mathcal{A} \left( u^{^{h}} , v^{^{h}} \right) = \left< f , v^{^{h}} \right> \quad \forall \, v^{^{h}} \in S_{_{0}}^{^{h}}$ se le llama problema de aproximación del principio de \textit{Galerkin} (método de \textit{Galerkin})
\subsubsection*{Definición}
Las funciones $\varphi_{_{i}} \quad i = 1, 2, \ldots, n-1$ se llaman funciones base de \textit{Galerkin}
\subsubsection*{Teorema 14.5}
Existe una única función $u^{^{h}} \in S_{_{E}}^{^{h}}$ que minimiza $\mathcal{J} ( \cdot )$ en $S_{_{E}}^{^{h}}$, este $u^{^{h}}$ se llama la aproximación a $u(x)$ de \textit{Ritz}. Equivalentemente existe una única función $u^{^{h}} \in S_{_{E}}^{^{h}}$ que satisface $\mathcal{A} \left( u^{^{h}} , v^{^{h}} \right) = \left< f , v^{^{h}} \right>$ \\
este $u^{^{h}}$ se denomina la aproximación a $u$ de \textit{Galerkin}, las dos aproximaciones coinciden. \\
\textbf{Demostración} \\
Probemos aplicando el principio de \textit{Galerkin}
\begin{align*}
\mathcal{A} \left( u^{^{h}} , v^{^{h}} \right) &=\, \left< f , v^{^{h}} \right> \quad \forall \, v^{^{h}} \in S_{_{0}}^{^{h}} \\
v^{^{h}} &=\, \sum_{i=1}^{n-1} \, v_{_{i}} \varphi_{_{i}} (x) \\
\intertext{ observemos que }
\mathcal{A} \left( u^{^{h}} , \sum_{i=1}^{n-1} \, v_{_{i}} \varphi_{_{i}} (x) \right) &=\, \left< f , \sum_{i=1}^{n-1} \, v_{_{i}} \varphi_{_{i}} (x) \right) \\
\sum_{i=1}^{n-1} \, v_{_{i}} \mathcal{A} \left( u^{^{h}} , \varphi_{_{i}} \right) &=\, \sum_{i=1}^{n-1} \, v_{_{i}} \left< f , \varphi_{_{i}} \right> \\
\sum_{i=1}^{n-1} \, v_{_{i}} \left[ \mathcal{A} \left( u^{^{h}} , \varphi_{_{i}} \right) - \left< f , \varphi_{_{i}} \right> \right] &=\, 0
\end{align*}
entonces $\mathcal{A} \left( u^{^{h}} , \varphi_{_{i}} \right) = \left< f , \varphi_{_{i}} \right>$ ya que $v^{^{h}}$ es arbitrario \\
buscamos $\displaystyle u^{^{h}} = \Psi (x) + \sum_{i=1}^{n-1} \, u_{_{j}} \varphi_{_{j}} (x)$ donde $u_{_{j}}$ son los coeficientes
\begin{align*}
\Longrightarrow \mathcal{A} \left( \Psi (x) + \sum_{i=1}^{n-1} \, u_{_{j}} \varphi_{_{j}} , \varphi_{_{i}} \right) &=\, \left< f , \varphi_{_{i}} \right> \quad i = 1, \ldots, n-1 \\
\mathcal{A} ( \Psi , \varphi_{_{i}} ) + \mathcal{A} \left( \sum_{i=1}^{n-1} \, u_{_{j}} \varphi_{_{j}} , \varphi_{_{i}} \right) &=\, \left< f , \varphi_{_{i}} \right> \\
\sum_{i=1}^{n-1} \, u_{_{j}} \, \mathcal{A} \left( \varphi_{_{j}} + \varphi_{_{i}} \right) &=\, \left< f , \varphi_{_{i}} \right> \\
\intertext{ extendiendo $\left< f , \varphi_{_{1}} \right> - \mathcal{A} ( \Psi , \varphi_{_{1}} )$ }
\left< f , \varphi_{_{1}} \right> - \mathcal{A} ( \Psi , \varphi_{_{1}} ) &=\, \mathcal{A} \left( \varphi_{_{1}} , \varphi_{_{1}} \right) u_{_{1}} +\mathcal{A} \left( \varphi_{_{2}} , \varphi_{_{1}} \right) u_{_{2}} +\ldots+ \mathcal{A} \left( \varphi_{_{n-1}} , \varphi_{_{1}} \right) u_{_{n-1}} \\
&\vdots \\
\left< f , \varphi_{_{n-1}} \right> - \mathcal{A} ( \Psi , \varphi_{_{n-1}} ) &=\, \mathcal{A} \left( \varphi_{_{1}} , \varphi_{_{n-1}} \right) u_{_{1}} +\mathcal{A} \left( \varphi_{_{2}} , \varphi_{_{n-1}} \right) u_{_{2}} +\ldots+ \mathcal{A} \left( \varphi_{_{n-1}} , \varphi_{_{n-1}} \right) u_{_{n-1}}
\end{align*}
asi obtenemos un sistema lineal de $n-1$ ecuaciones con $n-1$ incognitas $Mu=b$
\begin{align*}
M &=\,
\begin{bmatrix}
\mathcal{A} ( \varphi_{_{1}} , \varphi_{_{1}} ) & \ldots & \mathcal{A} ( \varphi_{_{n-1}} , \varphi_{_{1}} ) \\
\vdots & \ddots & \vdots \\
\mathcal{A} ( \varphi_{_{1}} , \varphi_{_{n-1}} ) & \ldots & \mathcal{A} ( \varphi_{_{n-1}} , \varphi_{_{n-1}} )
\end{bmatrix} & u &=\,
\begin{bmatrix}
u_{_{1}} \\ \vdots \\ u_{_{n-1}}
\end{bmatrix} & b &=\,
\begin{bmatrix}
\left< f , \varphi_{_{1}} \right> - \mathcal{A} ( \Psi , \varphi_{_{i}} ) \\
\vdots \\
\left< f , \varphi_{_{n-1}} \right> - \mathcal{A} ( \Psi , \varphi_{_{n-1}} )
\end{bmatrix}
\end{align*}
como $\mathcal{A} ( \cdot , \cdot )$ es simétrico, entonces $\mathcal{A} ( \varphi_{_{i}} , \varphi_{_{j}} ) = \mathcal{A} ( \varphi_{_{j}} , \varphi_{_{i}} ) \Longrightarrow\, M$ es simétrica \\
además $M$ es definida positiva
\begin{align*}
( v_{_{1}} , \ldots, v_{_{n}} ) M
\begin{pmatrix}
v_{_{1}} \\
\vdots \\
v_{_{n}}
\end{pmatrix} &>0 &
v^{^{T}} M v &=\, v^{^{T}}
\begin{bmatrix}
\displaystyle \sum_{i=1}^{n-1} \, v_{_{j}} \mathcal{A} ( \varphi_{_{j}} , \varphi_{_{i}} ) \\
\vdots \\
\displaystyle \sum_{i=1}^{n-1} \, v_{_{i}} \mathcal{A} ( \varphi_{_{j}} , \varphi_{_{n-1}} )
\end{bmatrix} \\
& & &=\, v^{^{T}}
\begin{bmatrix}
\displaystyle \mathcal{A} \left( \sum_{i=1}^{n-1} \, v_{_{j}} \varphi_{_{j}} , \varphi_{_{1}} \right) \\
\vdots \\
\displaystyle \mathcal{A} \left( \sum_{i=1}^{n-1} \, v_{_{j}} \varphi_{_{j}} , \varphi_{_{n-1}} \right)
\end{bmatrix} \\
& & &=\, \sum_{i=1}^{n-1} \, v_{_{i}} \mathcal{A} \left( \sum_{j=1}^{n-1} \, v_{_{j}} \varphi_{_{j}} , \varphi_{_{i}} \right) \\
& & &=\, \mathcal{A} \left( \sum_{j=1}^{n-1} \, v_{_{j}} \varphi_{_{j}} \,,\, \sum_{i=1}^{n-1} \, v_{_{i}} \varphi_{_{i}} \right) \\
& & &=\, \mathcal{A} \left( v^{^{h}} , v^{^{h}} \right) \\
& & &=\, \int_a^b \, \left[ p(x) \left( v^{^{'h}} \right)^{^{2}} + r(x) \left( v^{^{h}} \right)^{^{2}} \right] \, dx > 0
\end{align*}
$M$ es definida positiva $\Longrightarrow\, M^{^{-1}}$ existe \\
el sistema tiene una única solución
\begin{align*}
M_{_{ij}} &=\, \mathcal{A} ( \varphi_{_{i}} , \varphi_{_{j}} ) \\
&=\, \int_a^b \, [ p(x) \varphi'_{_{i}} \varphi'_{_{j}} + r(x) \varphi_{_{i}} \varphi_{_{j}} ] \, dx \\
b_{_{i}} &=\, \int_a^b \, f \, \varphi_{_{i}} \, dx - \int_a^b \, [ p(x) \Psi'(x) \varphi_{_{i}} + r(x) \Psi \varphi_{_{i}} ] \, dx \qquad \Box
\end{align*}
\subsection*{Funciones Base Lineales en Una Dimensión}
%%%Figura EF14
Se efectua la partición de mallado de la región, un elemento con nodos en $x_{_{i-1}}$ y $x_{_{i}}$ \\
en general los elementos pueden ser de diferente tamaño $x_{_{i}} - x_{_{i-1}} = h_{_{i}} \quad i = 1, \ldots, n-1$
\begin{align*}
\varphi_{_{i}} (x) &=\,
\begin{cases}
\dfrac{ x - x_{_{i-1}} }{ h_{_{i}} } & x_{_{i-1}} < x < x_{_{i}} \\
\dfrac{ x_{_{i+1}} - x }{ h_{_{i+1}} } & x_{_{i}} < x < x_{_{i+1}} \\
0 & \text{en cualquier parte}
\end{cases} \\ %%%Figura EF15
\varphi_{_{0}} (x) &=\,
\begin{cases}
\dfrac{ x_{_{1}} -x }{ h_{_{1}} } & x_{_{0}} < x < x_{_{1}} \\
0 & x > x_{_{1}}
\end{cases} \\ %%%Figura EF16
\varphi_{_{1}} (x) &=\,
\begin{cases}
\dfrac{ x_{_{1}} - x }{ h_{_{1}} } & x_{_{0}} < x < x_{_{1}} \\
\dfrac{ x_{_{2}} - x }{ h_{_{2}} } & x_{_{1}} < x < x_{_{2}} \\
0 & x > x_{_{2}}
\end{cases} \\ %%%Figura EF17
\varphi_{_{2}} (x) &=\,
\begin{cases}
0 & x_{_{0}} < x < x_{_{1}} \\
\dfrac{ x - x_{_{1}} }{ h_{_{2}} } & x_{_{1}} < x < x_{_{2}} \\
\dfrac{ x_{_{3}} - x }{ h_{_{3}} } & x_{_{2}} < x < x_{_{3}} \\
0 & x > x_{_{3}}
\end{cases} \\ %%%Figura EF18
\varphi_{_{0}} (x) &=\,
\begin{cases}
0 & x_{_{0}} < x < x_{_{n-1}} \\
\dfrac{ x - x_{_{1}} }{ h_{_{n}} } & x_{_{n-1}} < x < x_{_{n}}
\end{cases} %%%Figura EF19
\end{align*}
observemos que $\Psi (x) = A \varphi_{_{0}} (x) + B \varphi_{_{n}} (x)$ donde $\Psi (x) \in H'_{_{E}} (a,b)$, cuando hacemos la combinación lineal $\displaystyle \sum_{i=0}^n \, \alpha_{_{i}} \varphi_{_{i}} (x)$ obtenemos una función lineal continua
%%%Figura EF20
$$\varphi_{_{i}} (x) \varphi_{_{j}} (x) =
\begin{cases}
0 & | i-j | \geq 2 \\
\neq 0 & \text{en otro caso}
\end{cases}$$
\subsubsection*{Ejemplo}
$\begin{cases}
-u'' + u = \left( 1 + \pi^{^{2}} \right) \sin \, \pi x & 0 < x < 1 \\
u(0) = 0 & u(1)=0
\end{cases}$ \\
$p(x) = 1 \qquad r(x)=1$\\
$Mu=b$
\begin{align*}
M_{_{ij}} &=\, \mathcal{A} ( \varphi_{_{j}} , \varphi_{_{i}} ) & \Psi &=\, A \varphi_{_{0}} (x) +B \varphi_{_{n}} (x) \\
&=\, \int_0^1 \, [ \varphi'_{_{i}} (x) \varphi'_{_{j}} (x) \varphi_{_{i}} (x) \varphi_{_{j}} (x) ] \, dx & &=\, 0 \\
b_{_{i}} &=\, \int_0^1 \, \left( 1 + \pi^{^{2}} \right) \sin \, \pi x \varphi_{_{i}} (x) \,dx - \int_0^1 \, [ \Psi' \varphi_{_{i}} + \Psi \varphi_{_{i}} ] \, dx \\
&=\, \int_0^1 \, \left( 1 + \pi^{^{2}} \right) \int_0^1 \, \sin \, \pi x \varphi_{_{i}} (x) \,dx
\end{align*}
$M$ es tridiagonal \\
dos elementos %%%Figura EF20
\begin{align*}
u^{^{h}} &=\, \sum_{i=0}^2 \, u_{_{i}} \varphi_{_{i}} (x) & M &=\, [ \mathcal{A} ( \varphi_{_{1}} , \varphi_{_{1}} ) ] \\ M_{_{11}} u_{_{1}} &=\, b_{_{1}} \\
&=\, u_{_{1}} \varphi_{_{1}} (x) & &=\, \int_0^1 \, \left[ ( \varphi'_{_{1}} )^{^{2}} + \varphi_{_{1}}^{^{2}} \right] \, dx \\
b_{_{1}} &=\, \int_0^1 \, \left( 1 + \pi^{^{2}} \right) \int_0^1 \, \varphi_{_{1}} (x) \, \sin \, \pi x \, dx \\
u_{_{1}} &=\, \frac{ b_{_{1}} }{ M_{_{1}} } & M_{_{11}} u_{_{1}} &=\, b_{_{1}} \\
\varphi_{_{1}} (x) &=\,
\begin{cases}
\dfrac{x-0}{ \frac{1}{2} } & 0 < x < \dfrac{1}{2} \\
\dfrac{1-x}{ \frac{1}{2} } & \dfrac{1}{2} < x < 1
\end{cases} &
\varphi'_{_{1}} (x) &=\,
\begin{cases}
2 & 0 < x < \dfrac{1}{2} \\
-2 & \dfrac{1}{2} < x < 1
\end{cases} \\
M_{_{11}} &=\, \int_0^1 \, \left( 4 + 4 x^{^{2}} \right) \, dx + \int_{1/2}^1 \, 2 (1-x) \, \sin \, \pi x \, dx \\
&=\, \frac{13}{3} \\
b_{_{1}} &=\, \left( 1 + \pi^{^{2}} \right) \left[ \int_0^{1/2} \, 2x \, \sin \, \pi x \, dx + \int_{1/2}^1 \, (2(1-x) \, \sin \, \pi x \, dx \right] \\
&=\, \frac{4}{ \pi^{^{2}} } + 4 \\
u_{_{1}} &=\, \frac{ \dfrac{4}{ \pi^{^{2}} } + 4 }{ \dfrac{13}{3} } \\
&\approx\, 1.016
\end{align*}
6 elementos \\%%%Figura EF21
$\displaystyle u^{^{h}} = \sum_{i=1}^{n-1} \, u_{_{i}} \varphi_{_{i}} (x)$ ya que $A=B=0$
$$\begin{bmatrix}
M_{_{11}} & M_{_{12}} & 0 & 0 & 0 \\
M_{_{21}} & M_{_{22}} & M_{_{23}} & 0 & 0 \\
0 & M_{_{32}} & M_{_{33}} & M_{_{34}} & 0 \\
0 & 0 & M_{_{43}} & M_{_{44}} & M_{_{45}} \\
0 & 0 & 0 & M_{_{54}} & M_{_{55}}
\end{bmatrix} \,
\begin{bmatrix}
u_{_{1}} \\ u_{_{2}} \\ u_{_{3}} \\ u_{_{4}} \\ u_{_{5}}
\end{bmatrix} =
\begin{bmatrix}
u_{_{1}} \\ u_{_{2}} \\ u_{_{3}} \\ u_{_{4}} \\ u_{_{5}}
\end{bmatrix}$$
\subsection*{Funciones Base Cuadráticas}
%%%Figura EF22
\begin{align*}
\varphi_{_{0}} (x) &=\,
\begin{cases}
\dfrac{ ( x - x_{_{1}} ) ( x - x_{_{2}} ) }{ ( x_{_{0}} - x_{_{1}} ) ( x_{_{0}} - x_{_{2}} ) } & x_{_{0}} \leq x \leq x_{_{2}} \\
0 & x \geq x_{_{2}}
\end{cases} \\ %%%Figura EF23
\varphi_{_{1}} (x) &=\,
\begin{cases}
\dfrac{ ( x - x_{_{0}} ) ( x - x_{_{2}} ) }{ ( x_{_{1}} - x_{_{0}} ) ( x_{_{1}} - x_{_{2}} ) } & x_{_{0}} \leq x \leq x_{_{2}} \\
0 & x \geq x_{_{2}}
\end{cases} %%%Figura EF24
\end{align*}
\begin{align*}
\varphi_{_{2}} (x) &=\,
\begin{cases}
\dfrac{ ( x - x_{_{0}} ) ( x - x_{_{1}} ) }{ ( x_{_{2}} - x_{_{0}} ) ( x_{_{2}} - x_{_{1}} ) } & x_{_{0}} \leq x \leq x_{_{2}} \\
\dfrac{ ( x - x_{_{3}} ) ( x - x_{_{4}} ) }{ ( x_{_{2}} - x_{_{3}} ) ( x_{_{2}} - x_{_{4}} ) } & x_{_{2}} \leq x \leq x_{_{4}} \\
0 & x \geq x_{_{4}}
\end{cases} \\ %%%Figura EF25
\varphi_{_{3}} (x) &=\,
\begin{cases}
0 & x_{_{0}} \leq x \leq x_{_{2}} \\
\dfrac{ ( x - x_{_{2}} ) ( x - x_{_{4}} ) }{ ( x_{_{3}} - x_{_{2}} ) ( x_{_{3}} - x_{_{4}} ) } & x_{_{2}} \leq x \leq x_{_{4}} \\
0 & x \geq x_{_{4}}
\end{cases} \\ %%%Figura EF26
\varphi_{_{n}} (x) &=\,
\begin{cases}
0 & x_{_{0}} \leq x \leq x_{_{n-2}} \\
\dfrac{ ( x - x_{_{n-2}} ) ( x - x_{_{n-1}} ) }{ ( x_{_{n}} - x_{_{n-2}} ) ( x_{_{n}} - x_{_{n-1}} ) } & x_{_{0}} \leq x \leq x_{_{2}} \\
\end{cases}
\end{align*}
\subsection*{Funciones Base Cúbicas}
Insertamos dos nodos en cada elemento \\ %%%Figura EF27
no cambia la forma de la aproximación
\begin{align*}
u^{^{h}} (x) &=\, \sum_{i=0}^n \, u_{_{i}} \varphi_{_{i}} (x) & Mu &=\, b & M_{_{ij}} &=\, \int_a^b \, [ p(x) \varphi'_{_{i}} (x) \varphi'_{_{j}} (x) + r(x) \varphi_{_{i}} (x) \varphi_{_{j}} (x) ] \, dx \\
\intertext{ la mejor estrategia es efectuar integración numérica, la más utilizada es la cuadrática gaussiana }
\int_a^b \, F(x) \, dx &=\, \int_{-1}^1 \, G(z) \,dz \\
&\approx\, \sum_{i=1}^m \, w_{_{i}} G ( z_{_{i}} )
\end{align*}
\subsubsection*{Ejemplo}
Cuadráticas, dos elementos \\ %%%Figura
como $u(0)=u(1)=0$ entonces no nos interesan $\varphi_{_{0}} , \varphi_{_{4}}$
\begin{align*}
\varphi_{_{1}} (x) &=\,
\begin{cases}
\dfrac{ (x-0) ( x-\frac{1}{2} ) }{ ( \frac{1}{4} - 0 ) ( \frac{1}{4} - \frac{1}{2} ) } & 0 \leq x < \frac{1}{2} \\
0 & \frac{1}{2} \leq x < 1
\end{cases} \\
&=\,
\begin{cases}
-16 x ( x - \frac{1}{2} ) \\
0
\end{cases} %%%Figura ED28
\end{align*}
\begin{align*}
\varphi_{_{2}} (x) &=\,
\begin{cases}
\dfrac{ x ( x - \frac{1}{4} ) }{ ( \frac{1}{2} - 0 ) ( \frac{1}{2} - \frac{1}{4} ) } & 0 \leq x < \frac{1}{2} \\
\dfrac{ ( \frac{1}{2} - \frac{3}{4} ) ( \frac{1}{2} - 1 ) }{ ( \frac{1}{4} - 0 ) ( \frac{1}{4} - \frac{1}{2} ) } & \frac{1}{2} \leq x < 1
\end{cases} \\ %%%Figura ED29
&=\,
\begin{cases}
8x ( x - \frac{1}{4} ) \\
8x ( x - \frac{3}{4} ) (x-1)
\end{cases} \\
\varphi_{_{3}} (x) &=\,
\begin{cases}
0 & 0 \leq x < \frac{1}{2} \\
\dfrac{ ( x - \frac{1}{2} ) ( x-1 ) }{ ( \frac{3}{4} - \frac{1}{2} ) ( \frac{3}{4} - 1 ) } & \frac{1}{2} \leq x < 1
\end{cases} %%%Figura ED30
\end{align*}
Consideremos un problema de ecuaciones diferenciales ordinarias de segundo orden con condiciones de frontera más generales \\
$\begin{cases}
\displaystyle a_{_{2}} (x) \frac{ d^{^{2}} u }{ dx^{^{2}} } + a_{_{1}} \frac{du}{dx} + a_{_{0}} (x) u = f(x)& 0 < x< l \\
\alpha_{_{0}} \dfrac{ du(0) }{dx} + \beta_{_{0}} u(0) = \gamma_{_{0}} \\
\alpha_{_{1}} \dfrac{ du(l) }{dx} + \beta_{_{0}} u(l) = \gamma_{_{l}}
\end{cases}$ \\
$\alpha_{_{0}} , \beta_{_{0}} , \alpha_{_{l}} , \beta_{_{l}} , \gamma_{_{0}} , \gamma_{_{l}}$ son constantes \\
Determinar la formulación débil del problema
$$\int_0^l \, \left[ a_{_{2}} (x) \frac{ d^{^{2}} u }{ dx^{^{2}} } v + a_{_{1}} \frac{du}{dx} v + a_{_{0}} (x) uv \right] \, dx = \int_0^l \, f(x) v \, dx$$
integrando por partes $\displaystyle \int_0^l \, a_{_{2}} (x) \frac{ d^{^{2}} u }{ dx^{^{2}} } v(x) \, dx$
\begin{align*}
w &=\, a_{_{2}} (x) v(x) & z &=\, \frac{du}{dx} \\
dw &=\, [ a'_{_{2}} (x) v(x) + a_{_{2}} (x) v'(x) ] \, dx & dz &=\, \frac{ d^{^{2}} u }{ dx^{^{2}} } dx
\end{align*}
sustituyendo
$$\int_0^l \, a_{_{2}} (x) \frac{ d^{^{2}} u }{ dx^{^{2}} } v \, dx =\, \left. a_{_{2}} (x) v(x) \frac{du}{dx} \right|_0^l - \int_0^l \, [ a'_{_{2}} (x) v(x) + a_{_{2}} (x) v'(x) ] \, \frac{du}{dx}$$
sustituyendo
\begin{align*}
a_{_{2}} v u' \bigg|_0^l - \int_0^l \, ( a'_{_{2}} v + a_{_{2}} v' ) u \, dx + \int_0^l \, a_{_{1}} u' v \, dx + \int_0^l \, a_{_{0}} uv \, dx &=\, \int_0^l \, fv \, dx \\
\left. \int_0^l \, [ a'_{_{2}} u' v' + ( a_{_{1}} - a'_{_{2}} ) u' v + a_{_{0}} uv ] \, dx + a_{_{2}} vu' \right|_0^l &=\, \int_0^l \, fv \, dx \qquad u, v \in H'(0,l)
\end{align*}
lo cual es la formulación débil, observemos que
$$a_{_{2}} vu' \bigg|_0^l =\, a_{_{2}} (l) v(l) u'(l) - a_{_{2}} (0) v(0) u'(0)$$
buscamos determinar $u ; u(0) , v(l)$ son también desconocidas, de las condiciones de frontera
\begin{align*}
u'(0) &=\, \frac{ \gamma_{_{0}} - \beta_{_{0}} u(0) }{ \alpha_{_{0}} } \\
u'(l) &=\, \frac{ \gamma_{_{l}} - \beta_{_{l}} u(l) }{ \alpha_{_{l}} }
\end{align*}
entonces
$$a_{_{2}} v' u \bigg|_0^l =\, a_{_{2}} (l) v(l) \left[ \frac{ \gamma_{_{l}} }{ \alpha_{_{l}} } - \frac{ \beta_{_{l}} }{ \alpha_{_{l}} } u(l) \right] - a_{_{2}} (0) v(0) \left[ \frac{ \gamma_{_{0}} }{ \alpha_{_{0}} } - \frac{ \beta_{_{0}} }{ \alpha_{_{0}} } u(0) \right]$$ entonces la formulación débil es
\begin{align*}
\int_0^l \, [ - a_{_{2}} u' v' + ( a_{_{1}} - a'_{_{2}} ) u' v + a_{_{0}} uv ] \, dx + \frac{ a_{_{2}} (0) \gamma_{_{0}} }{ \alpha_{_{0}} } u(0) v(0) - \frac{ a_{_{2}} (l) \gamma_{_{l}} }{ \alpha_{_{l}} } u(l) v(l) &=\, \int_0^l \, f(x) v \, dx + \frac{ a_{_{2}} (0) \gamma_{_{0}} }{ \alpha_{_{0}} } v(0) \\
&\quad - \frac{ a_{_{2}} (l) \gamma_{_{l}} }{ \alpha_{_{l}} } v(l) \\
u^{^{h}} =\, \sum_{j=1}^N \, u_{_{j}} \varphi_{_{j}} (x) \qquad v^{^{h}} &=\, \sum_{j=1}^N \, v_{_{i}} \varphi_{_{i}} (x)
\end{align*}
%%%Figura
$u^{^{h}} , v^{^{h}} \in S^{^{h}} \subset H'(0,l)$, sustituyendo
\begin{align*}
\int_0^l \, [ - a_{_{2}} \varphi'_{_{i}} \varphi'_{_{j}} + ( a_{_{1}} - a'_{_{2}} ) \varphi_{_{j}} \varphi_{_{i}} + a_{_{0}} \varphi_{_{i}} \varphi_{_{j}} ] \, dx + \frac{ a_{_{2}} (0) }{ \alpha_{_{0}} } \varphi_{_{i}} (0) \varphi_{_{j}} (0) - \frac{ a_{_{2}} (l) }{ \beta_{_{l}} } \varphi_{_{i}} (l) \varphi_{_{j}} (l ) &= \\ \int_0^l \, f \varphi_{_{j}} \, dx + \frac{ a_{_{2}} (0) }{ \alpha_{_{0}} } \gamma_{_{0}} \varphi_{_{i}} (0) - \frac{ a_{_{2}} (l) }{ \alpha_{_{l}} } \varphi_{_{i}} (l) \quad i = 1, \ldots, N \quad j = 1 , \ldots, N
\end{align*}
$Mu=b$
\begin{align*}
M_{_{ij}} &=\, \overbrace{ \int_0^l \, [ - a_{_{2}} \varphi'_{_{i}} \varphi'_{_{j}} + ( a_{_{1}} - a'_{_{2}} ) \varphi_{_{j}} \varphi_{_{i}} + a_{_{0}} \varphi_{_{i}} \varphi_{_{j}} ] \, dx }^{ K_{_{ij}} } + \frac{ a_{_{2}} (0) }{ \alpha_{_{0}} } \varphi_{_{i}} (0) \varphi_{_{j}} (0) - \frac{ a_{_{2}} (l) }{ \alpha_{_{l}} } \varphi_{_{i}} (l) \varphi_{_{j}} (l ) \\
b &=\, \underbrace{ \int_0^l \, f \varphi_{_{i}} dx }_{ b_{_{i}} } +\frac{ a_{_{2}} (0) }{ \alpha_{_{0}} } \gamma_{_{0}} \varphi_{_{i}} (0) - \frac{ a_{_{2}} (l) }{ \alpha_{_{l}} } \varphi_{_{i}} (l)
\end{align*}
\begin{align*}
\begin{bmatrix}
M_{_{11}} & M_{_{12}} & \ldots & M_{_{1N}} \\
M_{_{21}} & M_{_{22}} & \ldots & M_{_{2N}} \\
\vdots & \vdots & \ddots & \vdots \\
M_{_{ (N-1) 1}} & M_{_{ (N-1) 2}} & \ldots & M_{_{ (N-1) N}} \\
M_{_{N1}} & M_{_{N2}} & \ldots & M_{_{NN}}
\end{bmatrix} \,
\begin{bmatrix}
u_{_{1}} \\
u_{_{2}} \\
\vdots \\
u_{_{N-1}} \\
u_{_{N}}
\end{bmatrix} &=\,
\begin{bmatrix}
b_{_{1}} \\
b_{_{2}} \\
\vdots \\
b_{_{N-1}} \\
b_{_{N}}
\end{bmatrix} \\
\Longrightarrow
\begin{bmatrix}
K_{_{11}} + \dfrac{ a_{_{2}} (0) \beta_{_{0}} }{ \alpha_{_{0}} } & K_{_{12}} & \ldots & \ldots & K_{_{1N}} \\
K_{_{21}} & K_{_{22}} & \ldots & \ldots & K_{_{2N}} \\
\vdots & \vdots & \ddots & \vdots &\vdots \\
K_{_{ (N-1) 1}} & K_{_{ (N-1) 2}} & \ldots & \ldots & K_{_{ (N-1) N}} \\
K_{_{N1}} & K_{_{N2}} & \ldots & K_{_{ N (N-1) }} & K_{_{NN}} - \dfrac{ a_{_{2}} (l) \beta_{_{l}} }{ \alpha_{_{l}} }
\end{bmatrix} \,
\begin{bmatrix}
u_{_{1}} \\
u_{_{2}} \\
\vdots \\
u_{_{N-1}} \\
u_{_{N}}
\end{bmatrix} &=\,
\begin{bmatrix}
\bar{b}_{_{1}} + \dfrac{ a_{_{2}} (0) \gamma_{_{0}} }{ \alpha_{_{0}} } \\
\bar{b}_{_{2}} \\
\vdots \\
\bar{b}_{_{N-1}} \\
\bar{b}_{_{N}} - \dfrac{ a_{_{2}} (l) \gamma_{_{l}} }{ \alpha_{_{l}} }
\end{bmatrix}
\end{align*}
\subsection*{Problemas Físicos Asociados a la Ecuación Diferencial Ordinaria de Segundo Orden}
Las ecuaciones constitutivas se determinan generalmente en base a los experimentos, son modelos matemáticos \\
Flujo $\sigma = - k \dfrac{du}{dx}$ donde $u$ es la variable de estado, y $k$ el módulo del material \\
aplicando la ley de conservación del flujo
\begin{align*}
\frac{ d \sigma }{dx} &=\, f \\
\frac{d}{dx} \left( - k \frac{du}{dx} \right) &=\, f(x)
\end{align*}
El modelo se completa considerando fuentes internas que se asumen de la forma $a_{_{0}} u$ y otras formas de transferencia como la convección $a_{_{1}} \dfrac{du}{dx}$ \\
conducción \\ %%%Figura
convección, se mueve a una velocidad $a_{_{1}} $ \\ %%%Figura
entonces $- \dfrac{d}{dx} \left( k \dfrac{du}{dx} \right) + a_{_{1}} \dfrac{du}{dx} +a_{_{0}} u = f$
%%%Tabla
\subsection*{Principio de Conservación}
\begin{align*}
\frac{ d \sigma }{dx} &=\, f(x) \quad \text{en} \, a < x < b \\
\sigma (b) - \sigma (a) &=\, \int_a^b \, f \, dx \\
\intertext{ se define el salto en el flujo en un punto $z \in [a,b]$ }
\ldbrack \sigma (z) \rdbrack = \lim_{ b \to z^{^{+}} } \, \sigma (b) - \lim_{ a \to z^- } \, \sigma (a)
\end{align*}
%%%Figura
es claro que si $f(x)$ es continua $\Longrightarrow\, \ldbrack \sigma (z) \rdbrack = 0$
\subsubsection*{Ejemplo}
Determinar la formulación débil del siguiente problema
$$\begin{cases}
-\dfrac{d}{dx} \left[ k(x) \dfrac{du}{dx} \right] +c(x) \dfrac{du}{dx} +b(x)u(x) = f(x) & x \in \Omega_{_{i}} \quad i = 1, 2, 3, 4 \\
\left\ldbrack k(x) \dfrac{du}{dx} \right\rdbrack = 0 & \text{en} \, x = x_{_{1}} \\
- \left\ldbrack k(x) \dfrac{du}{dx} \right\rdbrack = \hat{f} & \text{en} \, x = x_{_{2}} \\
\left\ldbrack k(x) \dfrac{du}{dx} \right\rdbrack = 0 & \text{en} \, x = x_{_{3}} \\
\alpha_{_{0}} \dfrac{ du(0) }{dx} + \beta_{_{0}} u(0) = \gamma_{_{0}} \\
\alpha_{_{l}} \dfrac{ du(l) }{dx} + \beta_{_{l}} u(l) = \gamma_{_{l}}
\end{cases}$$
%%%Figura
$K'(x)$ no existe en $x_{_{1}}$
\begin{align*}
\sigma (b) - \sigma (a) &=\, \int_a^b \, f(x) \, dx \\
&=\, \int_a^b \, \bar{f} (x) \, dx + \int_a^b \, \hat{f} (x) \, \delta ( x - x_{_{2}} ) \, dx
\end{align*}
Determinar una solución clásica en encontrar $u(x)$ que satisfaga la ecuación diferencial, las condiciones de frontera y las tres condiciones en el salto en el flujo. Veamos la formulación débil del problema
$$\int_0^l \, \left[ - \frac{d}{x} \left( k \frac{du}{dx} \right) +c(x) \frac{du}{dx} + b(x) u(x) \right] \, v(x) \, dx = \int_0^l \, f(x) v(x) \, dx$$
integrando por partes
\begin{align*}
w &=\, v(x) & dz &=\, - \frac{d}{x} \left( k \frac{du}{dx} \right) \\
w' &=\, v'(x) \, dx & z &=\, - k \frac{du}{dx}
\end{align*}
$\displaystyle \int_{ x_{_{i}} }^{ x_{_{i+1}} } \, - \frac{d}{x} \left( k \frac{du}{dx} \right) \, v(x) \, dx = -kvu' \bigg|_{ x_{_{i}} }^{ x_{_{i+1}} } + \int_{ x_{_{i}} }^{ x_{_{i+1}} } \, ku'v' \,dx$ \\
$\displaystyle \Longrightarrow \sum_{i=0}^3 \, \left( \left. -k u' v \right|_{ x_{_{i}} }^{ x_{_{i+1}} } + \int_{ x_{_{i}} }^{ x_{_{i+1}} } \, ku'v' \, dx \right) + \sum_{i=0}^3 \, \int_{ x_{_{i}} }^{ x_{_{i+1}} } \, ( ku'v' +cu'v +buv ) \,dx = \sum_{i=0}^3 \, \int_{ x_{_{i}} }^{ x_{_{i+1}} } \, fv \, dx$ \\
$\displaystyle \sum_{i=0}^3 \, \left( \left. -k u' v \right|_{ x_{_{i}} }^{ x_{_{i+1}} } \right) + \sum_{i=0}^3 \int_{ x_{_{i}} }^{ x_{_{i+1}} } \, ( ku'v' +cu'v +buv ) \, dx = \sum_{i=0}^3 \int_{ x_{_{i}} }^{ x_{_{i+1}} } \, fv \, dx$ \\
\begin{align*}
\underbrace{ - k_{_{1}} u' ( x_{_{1}}^{^{-}} )}_{ \sigma ( x_{_{1}} ) } v ( x_{_{1}}^{^{-}} ) - \left( - k_{_{1}} u'(0) v(0) \right) - k_{_{2}} u' ( x_{_{2}}^{^{-}} ) v' ( x_{_{2}}^{^{-}} ) - \left( - k_{_{2}} u' ( x_{_{1}}^{^{+}} ) v ( x_{_{1}}^{^{+}} ) \right) & \\
- k_{_{2}} u' ( x_{_{3}}^{^{-}} ) v ( x_{_{3}}^{^{-}} - \left( - k_{_{2}} u' ( x_{_{2}}^{^{+}} ) v' ( x_{_{2}}^{^{+}} ) \right) - k_{_{2}} u'(l) v(l) - \left( - k_{_{2}} u' ( x_{_{3}}^{^{+}} ) v ( x_{_{3}}^{^{+}} ) \right) & \\
+ \sum_{i=0}^3 \int_{ x_{_{i}} }^{ x_{_{i+1}} } \, ( ku'v' +cu'v +buv ) \, dx &=\, \sum_{i=0}^3 \int_{ x_{_{i}} }^{ x_{_{i+1}} } \, fv \, dx
\end{align*}
$$\Longrightarrow - ( - k_{_{1}} u'(0) v'(0) ) - \ldbrack \underbrace{ - k u' ( x_{_{1}} ) }_0 \rdbrack v ( x_{_{1}} ) - \ldbrack \underbrace{ - k u' ( x_{_{2}} ) }_{ \hat{f} } \rdbrack v ( x_{_{2}} ) - \ldbrack \underbrace{ - k u' ( x_{_{3}} ) }_0 \rdbrack v ( x_{_{3}} )_0 - k_{_{2}} u'(l) v(l) = \int_0^l \, \bar{f} v \, dx$$
\begin{align*}
u'(0) &=\, \frac{ \gamma_{_{0}} - \beta_{_{0}} u(0) }{ \alpha_{_{0}} } & u'(0) &=\, \frac{ \gamma_{_{l}} - \beta_{_{l}} u(l) }{ \alpha_{_{l}} }
\end{align*}
entonces
$$k_{_{1}} \frac{ \gamma_{_{0}} - \beta_{_{0}} u(0) }{ \alpha_{_{0}} } v(0) - \hat{f} v ( x_{_{2}} ) - k_{_{1}} \frac{ \gamma_{_{l}} - \beta_{_{l}} u(l) }{ \alpha_{_{l}} } v(l) +\int_0^l \, ( ku'v' +cu'v uv ) \, dx = \int_0^l \, \bar{f} v \, dx$$
entonces la formulación débil del problema es
$$\int_0^l \, ( ku'v' +cu'v uv ) \, dx - \frac{ k_{_{1}} \beta_{_{0}} }{ \alpha_{_{0}} } u(0) v(0) -\frac{ k_{_{2}} \beta_{_{l}} }{ \alpha_{_{l}} } u(l) v(l) = \int_0^l \, \bar{f} v \, dx + \hat{f} v ( x_{_{2}} ) +\frac{ k_{_{1}} \gamma_{_{0}} }{ \alpha_{_{0}} } v(0) -\frac{ k_{_{2}} \gamma_{_{l}} }{ \alpha_{_{l}} } v(l)$$
$\displaystyle u, v \in H'(0,l) \qquad u^{^{h}} \in S^{^{h}} \subset H' \qquad u^{^{h}} = \sum_{i=1}^N \, u_{_{i}} \varphi_{_{i}} \qquad v^{^{h}} = \sum_{i=1}^N \, u_{_{j}} \varphi_{_{j}}$
\subsection*{ Análisis de Error (A Priori) }
\subsection*{Lema de Cea}
Supongamos que $u$ es la función que minimiza $\mathcal{J} (u)$ en $H'_{_{E}} (a<,b)$ o equivalentemente que $u$ satisface el principio de \textit{Galerkin}, y que $u^{^{h}}$ es su aproximación de \textit{Galerkin} obtenida minimizando $\mathcal{J} ( \cdot )$ en $S_{_{E}}^{^{h}}$ o $\mathcal{A} \left( u^{^{h}} , v^{^{h}} \right) = \left< f , v^{^{h}} \right> \quad \forall v^{^{h}} \in S_{_{0}}^{^{h}}$ entonces
\begin{align*}
\mathcal{A} \left( u-u^{^{h}} , v^{^{h}} \right) &=\, 0 \quad \forall v^{^{h}} \in S_{_{0}}^{^{h}} \\
\mathcal{A} \left( u-u^{^{h}} , u-u^{^{h}} \right) &=\, \min_{ v^{^{h}} \in S_{_{E}}^{^{h}} } \, \mathcal{A} \left( u-v^{^{h}} , u-v^{^{h}} \right)
\end{align*}
\subsection*{Error=$ | u-u^{^{h}} | $ }
$\mathcal{A} ( \cdot , \cdot )$ define un producto interior en $H'_{_{0}} (a,b)$
$$\mathcal{A} ( u,v ) = \int_a^b \, [ p(x) u' v' +r(x) uv ] \, dx$$
entonces $\mathcal{A} \left( u-u^{^{h}} , v^{^{h}} \right) = 0$ significa que $u-u^{^{h}}$ es ortogonal respecto al subespacio $S_{_{0}}^{^{h}}$, por eso a la ecuación \eqref{eq:01} se le conoce como principio de ortogonalidad de \textit{Galerkin}
\subsection*{Interpretación Gráfica}
$H'_{_{E}} (a,b) \qquad S_{_{0}}^{^{h}} \subset H'_{_{E}} \qquad u \in H'_{_{E}} \qquad \Psi \in H'_{_{E}} \qquad u^{^{h}} \in S_{_{E}}^{^{h}}$
%%%Figura
\subsection*{Proyector de Ritz}
Sea $\Psi (x) = A \varphi_{_{0}} (x) +B \varphi_{_{n}} (x)$
\begin{align*}
R^{^{h}} &:\, H'_{_{0}} (a,b) \longrightarrow S_{_{0}}^{^{h}} \\
&\, u - \Psi \longrightarrow u^{^{h}} - \Psi
\end{align*}
\textbf{Demostración} \\
Por el principio de \textit{Galerkin} $\mathcal{A} ( u,v ) = \left< f,v \right> \quad \forall \, v \in H'_{_{0}}$ \\
en particular $\mathcal{A} \left( u,v^{^{h}} \right) = \left< f,v^{^{h}} \right> \quad \forall \, v^{^{h}} \in S_{_{0}}^{^{h}} \subset H'_{_{0}}$ \\
por el método de \textit{Galerkin} $\mathcal{A} \left( u^{^{h}} , v^{^{h}} \right) = \left< f,v^{^{h}} \right> \quad \forall \, v^{^{h}} \in S_{_{0}}^{^{h}}$
\begin{align*}
\Longrightarrow & \mathcal{A} \left( u^{^{h}} , v^{^{h}} \right) - \mathcal{A} \left( u^{^{h}} , v^{^{h}} \right) = \left< f,v^{^{h}} \right> = 0 \quad \forall \, v^{^{h}} \in S_{_{0}}^{^{h}} \\
\Longrightarrow & \mathcal{A} \left( u-u^{^{h}} , v^{^{h}} \right) =\, 0 \quad \forall v^{^{h}} \in S_{_{0}}^{^{h}}
\end{align*}
tomemos $v^{^{h}} \in S_{_{E}}^{^{h}}$
\begin{align*}
\mathcal{A} \left( u-v^{^{h}} , u-v^{^{h}} \right) &=\,\mathcal{A} \left( u -u^{^{h}} +u^{^{h}} -v^{^{h}} , u -u^{^{h}} +u^{^{h}} -v^{^{h}} \right) \\
&=\,\mathcal{A} \left( u -u^{^{h}} , u-u^{^{h}} \right) +\mathcal{A} \left( u -u^{^{h}} , u^{^{h}} -v^{^{h}} \right) +\mathcal{A} \left( u^{^{h}} -v^{^{h}} , u-u^{^{h}} \right) \\
&\quad +\mathcal{A} \left( u^{^{h}} -v^{^{h}} , u^{^{h}} -v^{^{h}} \right) \\
&=\,\mathcal{A} \left( u -u^{^{h}} , u-u^{^{h}} \right) +2 \mathcal{A} \left( u -u^{^{h}} , u^{^{h}} -v^{^{h}} \right) +\mathcal{A} \left( u^{^{h}} -v^{^{h}} , u^{^{h}} -v^{^{h}} \right) \\
\intertext{ por la simetría de $\mathcal{A}$, como }
u^{^{h}} - v^{^{h}} \in S_{_{0}}^{^{h}} &\Longrightarrow\, \mathcal{A} \left( u -u^{^{h}} , u^{^{h}} -v^{^{h}} \right) = 0 \, \text{ por principio de ortogonalidad de \textit{Galerkin} } \\
&\Longrightarrow\, \mathcal{A} \left( u -v^{^{h}} , u-v^{^{h}} \right) = \mathcal{A} \left( u -u^{^{h}} , u-u^{^{h}} \right) +\mathcal{A} \left( u^{^{h}} - v^{^{h}} , u^{^{h}} -v^{^{h}} \right)
\end{align*}
como $\mathcal{A} \left( u^{^{h}} - v^{^{h}} , u^{^{h}} -v^{^{h}} \right) \geq 0$ \\
entonces $\mathcal{A} \left( u -u^{^{h}} , u-u^{^{h}} \right) \leq \mathcal{A} \left( u -v^{^{h}} , u-v^{^{h}} \right) \quad \forall \, v^{^{h}} \in S_{_{E}}^{^{h}}$, por lo tanto \eqref{eq:02} \\
se define la norma energía $\| \cdot \|_{_{A}}$ en $H'_{_{0}} (a,b)$, asi
\begin{align*}
\| v \|_{_{A}} &=\, \left[ \mathcal{A} (v,v)^{^{1/2}} \right] \\
&=\, \left\{ \int_a^b \, \left[ p(x) (v')^{^{2}} +r(x) (v)^{^{2}} \right] \, dx \right\}^{1/2}
\end{align*}
\eqref{eq:02} prueba que $u^{^{h}}$ es la mejor aproximación de $S_{_{E}}^{^{h}}$ a la solución débil $u \in H'_{_{E}} (a,b)$ cuando medimos el error de la aproximación en la norma energía
$$\left\| u - u^{^{h}} \right\|_{_{A}} = \min_{ v^{^{h}} \in S_{_{E}}^{^{h}} } \, \left\| u - v^{^{h}} \right\|_{_{A}}$$
ahora una pregunta muy importante es como el error $u - u^{^{h}}$ depende del tamaño de la subdivisión $h$ en $[a,b]$ \\
para analizar esto necesitamos introducir el interpolante del elemento finito $I^{^{h}} u \in S_{_{E}}^{^{h}}$ \\
($I^{^{h}} u$ es interpolante de $u \in H'_{_{E}} (a,b)$)
$$I^{^{h}} u(x) = \Psi (x) + \sum_{i=1}^{n-1} \, u ( x_{_{i}} ) \varphi_{_{i}} (x) \quad x \in [a,b]$$
por ser interpolante
\begin{align*}
I^{^{h}} u ( x_{_{j}} ) &=\, u ( x_{_{j}} ) \\
&=\, u_{_{j}}
\end{align*}
tomando $v^{^{h}} = I^{^{h}} u \in S_{_{E}}^{^{h}}$, entonces $\left\| u - u^{^{h}} \right\|_{_{A}} \leq \left\| u - I^{^{h}} u \right\|_{_{A}} \qquad \Box$
\subsubsection*{Teorema 14.7}
Supongamos que $u \in H^{^{2}} (a,b) \cap H'_{_{E}} (a,b)$, y sea $I^{^{h}} u$ el interpolante del elemento finito en $S_{_{E}}^{^{h}}$, entonces tenemos las siguientes cotas de error
\begin{align*}
\left\| u - I^{^{h}} u \right\|_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) } &\leq\, \left( \frac{ h_{_{i}} }{ \pi } \right)^2 \| u'' \|_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) } \qquad i=1, 2, \ldots, n \quad h_{_{i}} = x_{_{i}} - x_{_{i-1}} \\
\left\| u' - \left( I^{^{h}} u \right)' \right\|_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) } &\leq\, \frac{ h_{_{i}} }{ \pi } \| u'' \|_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }
\end{align*}
\textbf{Demostración} \\
Consideremos el elemento $[ x_{_{i-1}} , x_{_{i}} ] \quad i=1, \ldots, n$ \\
definimos $\zeta (x) = u(x) -I^{^{h}} u(x) \quad x \in [ x_{_{i-1}} , x_{_{i}} ]$ \\
entonces $\zeta (x) \in H^{^{2}} ( x_{_{i-1}} , x_{_{i}} )$ con $\zeta ( x_{_{i-1}} ) = \zeta ( x_{_{i}} ) = 0$ \\
aplicando resultados de convergencia en series de \textit{Fourier}, estamos seguros que $\zeta (x)$ puede expandirse en series de \textit{Fourier} de la forma
\begin{align*}
\zeta (x) &=\, \sum_{k=1}^{+\infty} \, a_{_{k}} \sin \, \frac{ k \pi ( x_{_{i}} - x_{_{i-1}} ) }{ h_{_{i}} } \quad x \in [ x_{_{i-1}} , x_{_{i}} ] \\
\Longrightarrow\, \int_{ x_{_{i-1}} }^{ x_{_{i}} } \, | \zeta (x) |^{^{2}} dx &=\, \int_{ x_{_{i-1}} }^{ x_{_{i}} } \, \sum_{k=1}^{+\infty} \, a_{_{k}} \sin \, \frac{ k \pi ( x - x_{_{i-1}} ) }{ h_{_{i}} } \cdot \sum_{l=1}^{+\infty} \, a_{_{l}} \sin \, \frac{ l \pi ( x - x_{_{i-1}} ) }{ h_{_{i}} } \, dx \\
&=\, \int_{ x_{_{i-1}} }^{ x_{_{i}} } \, \sum_{k=1}^{+\infty} \, \sum_{l=1}^{+\infty} \, a_{_{k}} a_{_{l}} \sin \, \frac{ k \pi ( x - x_{_{i-1}} ) }{ h_{_{i}} } \, \sin \, \frac{ l \pi ( x - x_{_{i-1}} ) }{ h_{_{i}} } \, dx \\
&=\, \sum_{k,l=1}^{+\infty} \, a_{_{k}} a_{_{l}} \int_{ x_{_{i-1}} }^{ x_{_{i}} } \, \sin \, \frac{ k \pi ( x - x_{_{i-1}} ) }{ h_{_{i}} } \, \sin \, \frac{ l \pi ( x - x_{_{i-1}} ) }{ h_{_{i}} } \, dx \\
\intertext{ tomando $t = \dfrac{ x - x_{_{i-1}} }{ h_{_{i}} } \qquad h_{_{i}} \, dt = dx \quad t=0 \longrightarrow t=1$ }
&=\, h_{_{i}} \sum_{k,l=1}^{+\infty} \, a_{_{k}} a_{_{l}} \int_0^l \, \sin \, k \pi t \, \sin \, l \pi t \, dt \\
&=\, \frac{ h_{_{i}} }{2} \sum_{k,l=1}^{+\infty} \, a_{_{k}} a_{_{l}} \delta_{_{lk}} \\
&=\, \frac{ h_{_{i}} }{2} \sum_{k=1}^{+\infty} \, a_{_{k}}^{^{2}} \\
\intertext{ con la delta de \textit{Kronecker} $\delta_{_{kl}} =
\begin{cases}
0 & k \neq l \\
1 & k=l
\end{cases}$ de la misma forma }
\int_{ x_{_{i-1}} }^{ x_{_{i}} } \, | \zeta' (x) |^{^{2}} dx &=\, \frac{ h_{_{i}} }{2} \sum_{k=1}^{+\infty} \, \left( \frac{ k \pi }{ h_{_{i}} } \right)^2 \, | a_{_{k}} |^{^{2}} \\
\int_{ x_{_{i-1}} }^{ x_{_{i}} } \, | \zeta'' (x) |^{^{2}} dx &=\, \frac{ h_{_{i}} }{2} \sum_{k=1}^{+\infty} \, \left( \frac{ k \pi }{ h_{_{i}} } \right)^4 \, | a_{_{k}} |^{^{2}} \\
\intertext{ ya que }
\zeta'(x) &=\, \sum_{k=1}^{+\infty} \, a_{_{k}} \frac{ k \pi }{ h_{_{i}} } \cos \, \frac{ k \pi ( x-x_{_{i-1}} ) }{ h_{_{i}} } \\
\intertext{ donde $a_{_{k}} \dfrac{ k \pi }{ h_{_{i}} } $ es un nuevo coeficiente }
\zeta''(x) &=\, - \sum_{k=1}^{+\infty} \, a_{_{k}} \left( \frac{ k \pi }{ h_{_{i}} } \right)^2 \, \sin \, \frac{ k \pi ( x-x_{_{i-1}} ) }{ h_{_{i}} } \\
\intertext{ y entonces }
\int_{ x_{_{i-1}} }^{ x_{_{i}} } \, | \zeta (x) |^{^{2}} dx &=\, \frac{ h_{_{i}} }{2} \sum_{k=1}^{+\infty} \, | a_{_{k}} |^{^{2}} \\
&=\, \frac{ h_{_{i}} }{2} \frac{ h_{_{i}}^{^{4}} }{ h_{_{i}}^{^{4}} } \frac{ \pi^{^{4}} }{ h_{_{i}}^{^{4}} } \, \sum_{k=1}^{+\infty} \, | a_{_{k}} |^{^{2}} \\
&\leq\, \frac{ h_{_{i}} }{2} \frac{ h_{_{i}}^{^{4}} }{ h_{_{i}}^{^{4}} } \, \sum_{k=1}^{+\infty} \, \frac{ \pi^{^{4}} }{ h_{_{i}}^{^{4}} } k^{^{4}} | a_{_{k}} |^{^{2}} \qquad k^{^{4}} \geq 1 \\
&=\, \left( \frac{ h_{_{i}} }{ \pi } \right)^4 \int_{ x_{_{i-1}} }^{ x_{_{i}} } \, | \zeta'' (x) |^{^{2}} dx
\end{align*}
$\zeta (x) = u - I^{^{h}} u$ \\
Si $I^{^{h}} u$ es polinómica de primer grado $\Longrightarrow\, \zeta''(x)=u''(x)$, entonces se obtienen las cotas de error del teorema
\begin{align*}
\int_{ x_{_{i-1}} }^{ x_{_{i}} } \, | \zeta (x) |^{^{2}} dx = \| \zeta(x) \|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }}^{^{2}} &\Longrightarrow\, \| \zeta(x) \|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }} \leq \left( \frac{ h_{_{i}} }{ \pi } \right)^4 \, \| \zeta''(x) \|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }} \\
&\Longrightarrow\, \| \underbrace{ \zeta(x) }_ { u - I^{^{h}} u } \|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }}^{^{2}} \leq \left( \frac{ h_{_{i}} }{ \pi } \right)^2 \, \| u''(x) \|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }} \\
\intertext{ además si $I^{^{h}} u$ es interpolante de segundo grado $\zeta'''(x) = u'''(x)$ entonces }
\left\| u-I^{^{h}} u \right\|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }} &\leq\, \left( \frac{ h_{_{i}} }{ \pi } \right)^3 \, \| u'''(x) \|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }} \\
\intertext{ pero ahora se necesita que $u \in H^{^{3}} (a,b) \cap H'_{_{E}} (a,b)$ }
\int_0^l \, \sin \, k \pi t \, \sin \, l \pi t \, dt &=\, \int_0^l \, \cos \, k \pi t \, \cos \, l \pi t \, dt \\
\intertext{ se puede entonces generalizar: si $I^{^{h}} u$ es un interpolante polinómico de grado $m$, entonces }
\left\| u-I^{^{h}} u \right\|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }} &\leq\, \left( \frac{ h_{_{i}} }{ \pi } \right)^{m+1} \, \left\| u^{^{ (m+1) }} (x) \right\|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }} \\
\intertext{ con $u \in H^{^{m+1}} (a,b) \cap H'_{_{E}} (a,b)$, si }
c &=\, \frac{1}{ \pi^{^{m+1}} } \, \max_{ x \in ( x_{_{i-1}} , x_{_{i}} ) } \, \left\| u^{^{ (m+1) }} (x) \right\|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }}
\end{align*}
entonces $\left\| u-u^{^{h}} \right\|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }} \leq c h_{_{i}}^{^{m+1}} \quad m$ de grado $I^{^{h}} u$ \\
en la norma energía $\| \cdot \|_{_{A}}$ se puede probar que
\begin{align*}
\left\| u-u^{^{h}} \right\|_{_{ A ( x_{_{i-1}} , x_{_{i}} ) }} &\leq\, k h_{_{i}}^{^{m}} \quad m \, \text{de grado} \, I^{^{h}} u \\
e_{_{i}} &=\, \left\| u-u^{^{h}} \right\|_{_{ ( x_{_{i-1}} , x_{_{i}} ) }} \\
\intertext{ tomamos $h = \max \, \{ h_{_{i}} \}$ }
\left\| u-u^{^{h}} \right\|_{_{ L^{^{2}} (a,b) }} &\leq\, k h^{^{m+1}} \\
\left\| u-u^{^{h}} \right\|_{_{ A (a,b) }} &\leq\, k h^{^{m}} \\
\ln \, \left\| u-u^{^{h}} \right\|_{_{ L^{^{2}} (a,b) }} &\leq\, (m+1) \, \ln \, h +\ln \, c \qquad \Box
\end{align*}
%%%Figura
en un punto $x_{_{i}}$ %%%Figura
\subsubsection*{Corolario 14.1}
Supongamos que $u \in H^{^{2}} (a,b) \cap H'_{_{E}} (a,b)$, entonces
$$\left\| u-I^{^{h}} u \right\|_{_{A}}^{^{2}} \leq\, \sum_{i=1}^n \, \left\{ \left( \frac{ h_{_{i}} }{ \pi } \right)^2 P_{_{i}} + \left( \frac{ h_{_{i}} }{ \pi } \right)^4 R_{_{i}} \right\} \, \| u'' \|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }}^{^{2}}$$
donde $\displaystyle P_{_{i}} = \max_{ x \in [ x_{_{i-1}} , x_{_{i}} ] } \, p(x)$ y $\displaystyle R_{_{i}} = \max_{ x \in [ x_{_{i-1}} , x_{_{i}} ] } \, r(x)$
\subsubsection*{Corolario 14.2}
Supongamos que $u \in H^{^{2}} (a,b) \cap H'_{_{E}} (a,b)$, entonces
$$\left\| u-I^{^{h}} u \right\|_{_{A}} \leq\, \sum_{i=1}^n \, \left\{ \left( \frac{ h_{_{i}} }{ \pi } \right)^2 P_{_{i}} + \left( \frac{ h_{_{i}} }{ \pi } \right)^4 R_{_{i}} \right\} \, \| u'' \|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }}^{^{2}}$$
donde $\displaystyle P_{_{i}} = \max_{ x \in [ x_{_{i-1}} , x_{_{i}} ] } \, p(x)$ y $\displaystyle R_{_{i}} = \max_{ x \in [ x_{_{i-1}} , x_{_{i}} ] } \, r(x)$, y además
$$\left\| u-I^{^{h}} u \right\|_{_{A}} \leq\, \frac{ h_{_{i}} }{ \pi } \, \left\{ P + \left( \frac{ h }{ \pi } \right)^2 R \right\}^{1/2} \, \| u'' \|_{_{ L^{^{2}} (a,b) }}$$
\begin{align*}
P &=\, \max_{ x \in [a,b] } \, p(x) & R &=\, \max_{ x \in [a,b] } \, r(x) & h &=\, \max_{ 1 \leq i \leq n } \, h_{_{i}}
\end{align*}
\subsection*{ Análisis de Error (A Posteriori) }
Consideremos el problema de valor de frontera
$$\begin{cases}
-( p(x) u' )' +q(x) u' +r(x)u = f(x) & a<x<b \\
u(a)=A & u(b)=B \\
p, q \in C'(a,b) \quad f \in L^{^{2}} (a,b) & p(x) \geq c_{_{0}} > 0 \\
r(x) -\dfrac{1}{2} q'(x) \leq c_{_{1}} > 0 \, \text{en} \, [a,b]
\end{cases}$$
entonces $\displaystyle \mathcal{A} (w,v) = \int_a^b \, [ p(x) w' v' +q(x) w' v +rwv ] \, dx$ \\
la formulación débil consiste en determinar $u \in H'(a,b)$ tal que $\mathcal{A} (u,v) = \left< f,v \right> \quad \forall \, v \in H'_{_{0}} (a,b)$ \\
el objetivo es cuantificar $\left\| u-I^{^{h}} u \right\|_{_{ L^{^{2}} (a,b) }}$ en terminos de parámetros de la malla $h$, y de la aproximación $u^{^{h}}$ en lugar de hacerlo en terminos de $u$ \\
para hacer este análisis de error se considera el problema auxiliar
$$\begin{cases}
-( p(x) z' )' +( q(x) z)' +r(x)z = \left( u-u^{^{h}} \right) (x) & a<x<b \\
z(a)=0 & z(b)=0
\end{cases}$$
este es llamado el problema dual o adjunto, se encuentra que
$$\left\| u-u^{^{h}} \right\|_{_{ L^{^{2}} (a,b) }} \leq\, \frac{1}{ \pi^{^{2}} } \left( \sum_{i=1}^n \, h_{_{i}}^{^{4}} \left\| R \left( u^{^{h}} \right) \right\|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }} \right)^{1/2} \, \| z'' \|_{_{ L^{^{2}} (0,1) }}$$
con $R \left( u^{^{h}} \right) (x) = f(x) - \left[ - \left( p(x) \left( u^{^{h}} \right)' \right)' +q(x) \left( u^{^{h}} \right)' +r(x) u^{^{h}} \right]$ que es el residuo del elemento finito
\subsubsection*{Lema 14.1}
Supongamos que $z$ es la solución débil del problema dual (14.33), (14.34), entonces existe una constante positiva $k$ dependiendo de $p, q, r$ solamente tal que
$$\| z'' \|_{_{ L^{^{2}} (a,b) }} \leq\, k \, \left\| u-u^{^{h}} \right\|_{_{ L^{^{2}} (a,b) }}$$
con $\displaystyle k = \frac{1}{ c_{_{0}} } \, \left[ 1 +\frac{1}{ \min \{ c_{_{0}} , c_{_{1}} \} } \, \left( \| p'+q \|_{_{ \infty }}^{^{2}} +\| r-q' \|_{_{ \infty }}^{^{2}} \right)^{^{1/2}} \right]$ \\
con estos resultados obtenemos cota de error que se pueden calcular después de obtener la aproximación
\begin{align*}
\left\| u-u^{^{h}} \right\|_{_{ L^{^{2}} (a,b) }} &\leq\, k_{_{0}} \left( \sum_{i=1}^n \, h_{_{i}}^{^{4}} \, \left\| R \left( u^{^{h}} \right) \right\|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }} \right)^{1/2} & k_{_{0}} &=\, \frac{k}{ \pi^{^{2}} } \\
\intertext{este resultado (14.43) nos permite definir criterios de paro}
\left\| u-u^{^{h}} \right\|_{_{ L^{^{2}} (a,b) }} &\leq\, \text{Tol} \\
k_{_{0}} \left( \sum_{i=1}^n \, h_{_{i}}^{^{4}} \, \left\| R \left( u^{^{h}} \right) \right\|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }} \right)^{1/2} &\leq\, \text{Tol} \\
\intertext{y elemento por elemento}
h_{_{i}}^{^{4}} \, \left\| R \left( u^{^{h}} \right) \right\|_{_{ L^{^{2}} ( x_{_{i-1}} , x_{_{i}} ) }} &\leq\, \frac{1}{n} \left( \frac{ \text{Tol} }{ k_{_{0}} } \right)^2
\end{align*}
\subsubsection*{Ejercicio}
\begin{enumerate}
\item \textit{Ejercicio 14.1}
$$v(x) = \int_a^x \, v'( \xi ) \, d \xi \quad v \in H'_{_{ E_{_{0}} }} (a,b) \quad x \in [a,b] \quad H'_{_{ E_{_{0}} }} (a,b) = \{ v \in H'(a,b) : v(a)=0 \}$$
\begin{align*}
\| v(x) \|_{_{ L^{^{2}} (a,b) }}^{^{2}} &=\, \int_a^b \, | v(x) |^{^{2}} \, dx \\
&=\, \int_a^b \, \left| \int_a^x \, v'( \xi ) \, d \xi \right|^2 \, dx
\end{align*}
recordando la desigualdad de \textit{Cauchy-Schwarz} $| \left< w,z \right> | \leq \| w \| \, \| z \|$ \\
producto interior en $\displaystyle L^{^{2}} (a,b) \,:\, \left< w,z \right> = \int_a^b \, wz \, dx$, entonces
\begin{align*}
\left| \int_a^x \, 1 \cdot v' ( \xi ) \, d\xi \right|^2 &\leq\, \| 1 \|_{_{ L^{^{2}} (a,x) }}^{^{2}} \| v' ( \xi ) \|_{_{ L^{^{2}} (a,x) }}^{^{2}} \\
&\leq\, (x-a) \| v' ( \xi ) \|_{_{ L^{^{2}} (a,b) }}^{^{2}} \\
\intertext{ entonces }
\| v(x) \|_{_{ L^{^{2}} (a,b) }}^{^{2}} &\leq\, \int_a^b \, (x-a) \| v' \|_{_{ L^{^{2}} (a,b) }}^{^{2}} \, dx \\
&=\, \| v' \|_{_{ L^{^{2}} (a,b) }}^{^{2}} \, \int_a^b \, (x-a) \, dx \\
&=\, \| v' \|_{_{ L^{^{2}} (a,b) }}^{^{2}} \, \left. \frac{ (x-a)^{^{2}} }{2} \right|_a^b \\
&=\, \frac{ (b-a)^{^{2}} }{2} \| v' \|_{_{ L^{^{2}} (a,b) }}^{^{2}}
\end{align*}
\item $\begin{cases}
-p_{_{0}} u'' +r_{_{0}} u = f(x) & p_{_{0}} > 0 \,,\, r_{_{0}} > 0 \quad f \in C^{^{4}} [0,1] \\
u(0) = u(1) = 0
\end{cases}$ \\
$x_{_{i}} = ih \quad i=0, 1, \ldots, n \qquad h = \dfrac{1}{n}$
\begin{align*}
\varphi_{_{i}} (x) &=\,
\begin{cases}
\dfrac{ ( x-x_{_{i-1}} ) }{h} & x_{_{i-1}} \leq x \leq x_{_{i}} \\ \\
\dfrac{ ( x_{_{i+1}} - x ) }{h} & x_{_{i}} \leq x
\end{cases} &
\varphi'_{_{i}} (x) &=\,
\begin{cases}
\dfrac{1}{h} & x_{_{i-1}} \leq x \leq x_{_{i}} \\ \\
-\dfrac{1}{h} & x_{_{i}} \leq x \leq x_{_{i+1}}
\end{cases} \\
\intertext{ $Mu=b$ }
M_{_{ij}} &=\, \int_0^1 \, ( p_{_{0}} \varphi'_{_{i}} \varphi'_{_{j}} +r_{_{0}} \varphi_{_{i}} \varphi_{_{j}} ) \, dx & b_{_{i}} &=\, \int_0^1 \, f \varphi_{_{i}} \, dx \\
M_{_{11}} &=\, \int_0^{ x_{_{1}} } \, \left( p_{_{0}} \frac{1}{ h^{^{2}} } +r_{_{0}} \frac{ x^{^{2}} }{ h^{^{2}} } \right) \, dx +\int_{ x_{_{1}} }^{ x_{_{2}} } \,\left( p_{_{0}} \frac{1}{ h^{^{2}} } +r_{_{0}} \frac{ ( x_{_{2}} -x )^{^{2}} }{ h^{^{2}} } \right) \, dx \\
&=\, \frac{ 2 p_{_{0}} }{h} +\frac{ 2 r_{_{0}} h }{3}
\end{align*}
$M_{_{11}} = M_{_{ii}} \quad i=2, \ldots, n-1$ \\ %%%Figura
por ser $p_{_{0}} , r_{_{0}}$ constantes %%%Figura
\begin{align*}
M_{_{12}} &=\, \int_0^1 \, ( p_{_{0}} \varphi'_{_{1}} \varphi'_{_{2}} +r_{_{0}} \varphi_{_{1}} \varphi_{_{2}} ) \, dx \\
&=\, \int_{ x_{_{1}} }^{ x_{_{2}} } \, \left[ p_{_{0}} \left( -\frac{1}{h} \right) \left( \frac{1}{h} \right) + r_{_{0}} \frac{ ( x_{_{2}} -x )^{^{2}} }{h} \frac{ ( x_{_{1}} -x )^{^{2}} }{h} \right] \, dx \\
&=\, -\frac{ p_{_{0}} }{h} +\frac{ r_{_{0}} h }{6}
\end{align*}
$M$ es simétrica ya que $\mathcal{A} ( \cdot , \cdot )$ es simétrica
$$M_{_{ij}} = M_{_{ji}}$$
observamos que la matriz es tridiagonal
\begin{align*}
M_{_{12}} &=\, M_{_{ i (i+1) }} \\
&=\, M_{_{ (i-1) i }} \\
&=\, -\frac{ p_{_{0}} }{h} +\frac{ r_{_{0}} h }{6}
\end{align*}
$\begin{bmatrix}
\dfrac{ 2 p_{_{0}} }{h} +\dfrac{ 2 r_{_{0}} h }{6} & -\dfrac{ p_{_{0}} }{h} +\dfrac{ r_{_{0}} h }{6} & 0 & 0 & \ldots & 0 \\
-\dfrac{ p_{_{0}} }{h} +\dfrac{ r_{_{0}} h }{6} & \dfrac{ 2 p_{_{0}} }{h} +\dfrac{ 2 r_{_{0}} h }{6} & -\dfrac{ p_{_{0}} }{h} +\dfrac{ r_{_{0}} h }{6} & 0 & \ldots & 0 \\
0 & \ddots & \ddots & \ddots & \ddots & 0 \\
\vdots & \ddots & \ddots & \ddots & \ddots & \vdots \\
\vdots & \ddots & \ddots & \ddots & \ldots & -\dfrac{ p_{_{0}} }{h} +\dfrac{ r_{_{0}} h }{6} \\
0 & \ldots & \ldots & \ldots & -\dfrac{ p_{_{0}} }{h} +\dfrac{ r_{_{0}} h }{6} & \dfrac{ 2 p_{_{0}} }{h} +\dfrac{ 2 r_{_{0}} h }{6}
\end{bmatrix} \,
\begin{bmatrix}
u_{_{1}} \\
\vdots \\
\vdots \\
\vdots \\
\vdots \\
u_{_{n-1}}
\end{bmatrix} =
\begin{bmatrix}
\left< f , \varphi_{_{1}} \right> \\
\vdots \\
\vdots \\
\vdots \\
\vdots \\
\left< f , \varphi_{_{n-1}} \right>
\end{bmatrix}$ \\
entonces $\left( -\dfrac{ p_{_{0}} }{h} +\dfrac{ r_{_{0}} h }{6} \right) u_{_{i-1}} +\left( \dfrac{ 2 p_{_{0}} }{h} +\dfrac{ 2 r_{_{0}} h }{3} \right) u_{_{i}} +\left( -\dfrac{ p_{_{0}} }{h} +\dfrac{ r_{_{0}} }{h} \right) u_{_{i+1}} = \left< f , \varphi_{_{i}} \right>$ \\
entonces $-p_{_{0}} \dfrac{ ( u_{_{i-1}} -2u_{_{i}} +u_{_{i+1}} ) }{ h^{^{2}} } +r_{_{0}} \dfrac{ ( u_{_{i-1}} +4u_{_{i}} +u_{_{i+1}} ) }{6} = \dfrac{1}{h} \left< f , \varphi_{_{1}} \right>$ \\
formulación tipica que resulta en el método de diferencias finitas \\
%%%Figura
procedemos a calcular $\left< f , \varphi_{_{i}} \right>$
\begin{align*}
\left< f , \varphi_{_{i}} \right> &=\, \int_0^1 \, f(x) \varphi_{_{i}} (x) \, dx \\
&=\, \int_0^1 \, \varphi_{_{i}} (x) \left[ f ( x_{_{i}} ) +f' ( x_{_{i}} ) ( x- x_{_{i}} ) + \ldots \right] \, dx \\
&=\, \int_{ x_{_{i-1}} }^{ x_{_{i}} } \, \frac{ ( x - x_{_{i-1}} ) }{h} \, \left[ f ( x_{_{i}} ) +f' ( x_{_{i}} ) ( x- x_{_{i}} ) + \ldots \right] \, dx \\
&\quad +\int_{ x_{_{i}} }^{ x_{_{i+1}} } \, \frac{ ( x_{_{i+1}} - x ) }{h} \, \left[ f ( x_{_{i}} ) +f' ( x_{_{i}} ) ( x- x_{_{i}} ) + \ldots \right] \, dx \\
&=\, \int_{ x_{_{i-1}} }^{ x_{_{i}} } \, ( x -x_{_{i}} +x_{_{i}} -x_{_{i-1}} ) \, dx +\int_{ x_{_{i}} }^{ x_{_{i+1}} } \, - ( x -x_{_{i}} +x_{_{i}} +x_{_{i+1}} ) \, dx \\
&=\, \left. \frac{1}{h} \left\{ f ( x_{_{i}} ) \frac{ ( x-x_{_{i-1}} )^{^{2}} }{2} +f' ( x_{_{i}} ) \frac{ ( x-x_{_{i}} )^{^{3}} }{3} +h \frac{ ( x-x_{_{i}} )^{^{2}} }{2} \right. \right. \\ %%%
&\quad \left. \left. +\frac{ f'' ( x_{_{i}} ) }{2} \left[ \frac{ ( x-x_{_{i}} )^{^{4}} }{4} +h \frac{ ( x-x_{_{i}} )^{^{3}} }{3} +\ldots \right] \right\} \right|_{ x_{_{i-1}} }^{ x_{_{i}} } \\ %%%
&\quad +\left. \frac{1}{h} \left\{ - f ( x_{_{i}} ) \frac{ ( x-x_{_{i+1}} )^{^{2}} }{2} -f' ( x_{_{i}} ) \left[ \frac{ ( x-x_{_{i}} )^{^{3}} }{3} -h \frac{ ( x-x_{_{i}} )^{^{2}} }{2} \right] \right. \right. \\
&\quad \left. \left. -\frac{ f'' ( x_{_{i}} ) }{2} \left[ \frac{ ( x-x_{_{i}} )^{^{4}} }{4} -h \frac{ ( x-x_{_{i}} )^{^{3}} }{3} -\ldots \right] \right\} \right|_{ x_{_{i}} }^{ x_{_{i+1}} } \\
&=\, h \, f( x_{_{i}} ) + \mathcal{O} f' ( x_{_{i}} ) +\frac{ f'' ( x_{_{i}} ) }{2} \left( \frac{ h^{^{3}} }{12} +\frac{ h^{^{3}} }{12} \right) +\mathcal{O} \left( h^{^{5}} \right)
\end{align*}
\begin{align*}
\Longrightarrow& \frac{1}{h} \left< f , \varphi_{_{i}} \right> = f( x_{_{i}} ) +\frac{ h^{^{2}} }{12} f'' ( x_{_{i}} ) +\mathcal{O} \left( h^{^{4}} \right) \\
\Longrightarrow& -p_{_{0}} \frac{ ( u_{_{i-1}} -2u_{_{i}} +u_{_{i+1}} ) }{ h^{^{2}} } +r_{_{0}} \frac{ ( u_{_{i-1}} +4u_{_{i}} +u_{_{i+1}} ) }{6} = f ( x_{_{i}} ) \\
&\quad+\frac{1}{12} h^{^{2}} f'' ( x_{_{i}} ) +\mathcal{O} \left( h^{^{4}} \right) \\
T_{_{i}} &=\, -p_{_{0}} \frac{ ( u_{_{i-1}} -2u_{_{i}} +u_{_{i+1}} ) }{ h^{^{2}} } +r_{_{0}} \frac{ ( u_{_{i-1}} +4u_{_{i}} +u_{_{i+1}} ) }{6} \\
&=\, \frac{ h^{^{2}} }{12} f'' ( x_{_{i}} ) +\mathcal{O} \left( h^{^{4}} \right) \\
\intertext{ de la ecuación diferencial $-p_{_{0}} u^{^{4}} +r_{_{0}} u'' = f''$, entonces }
\frac{ h^{^{2}} }{12} f'' ( x_{_{i}} ) +\mathcal{O} \left( h^{^{4}} \right) &=\, \frac{ h^{^{2}} }{12} \left( -p_{_{0}} u^{^{4}} +r_{_{0}} u'' \right) +\mathcal{O} \left( h^{^{4}} \right) \\
&=\, \frac{ h^{^{2}} }{12} r_{_{0}} u'' - \frac{ p_{_{0}} h^{^{2}} }{12} u^{^{4}} +\mathcal{O} \left( h^{^{4}} \right) \\
\intertext{ expandiendo $- \dfrac{ p_{_{0}} h^{^{2}} }{12} u^{^{4}}$ en series de \textit{Taylor} este término tiene también $\mathcal{O} \left( h^{^{4}} \right)$ }
\Longrightarrow\, \frac{ h^{^{2}} }{12} f'' ( x_{_{i}} ) +\mathcal{O} \left( h^{^{4}} \right) &=\, \frac{ h^{^{2}} }{12} r_{_{0}} u'' ( x_{_{i}} ) +\mathcal{O} \left( h^{^{4}} \right)
\end{align*}
si $\displaystyle M = \frac{ r_{_{0}} }{12} \max_{ x \in [0,1] } \, u''(x)$ entonces $\displaystyle \max_{ 0 \leq i \leq n } \, \left( u ( x_{_{i}} - u^{^{h}} ( x_{_{i}} ) \right) \leq M h^{^{2}}$
\end{enumerate}
\newpage
\subsection*{ Problema de Valores de Frontera en Dos Dimensiones }
\subsubsection*{ Conceptos Necesarios }
\begin{description}
\item [ Gradiente ] $\nabla \, u(x,y) = \dfrac{ \partial u }{ \partial x } \hat{i} +\dfrac{ \partial u }{ \partial y } \hat{j}$
\item [ $u$ campo escalar ]
\begin{align*}
u &:\, \mathbb{R}^{^{2}} \longrightarrow \mathbb{R} \\
&\, (x,y) \longrightarrow u(x,y)
\end{align*}
\item [ $\nabla u$ campo vectorial ]
\begin{align*}
\nabla u &:\, \mathbb{R}^{^{2}} \longrightarrow \mathbb{R}^{^{2}} \\
&\, (x,y) \longrightarrow \nabla u(x,y)
\end{align*}
%%%Figura
\item [ Derivada direccional ]
\begin{align*}
\frac{ \partial u }{ \partial n } &=\, \nabla u \cdot n \\
&=\, \frac{ \partial u }{ \partial x } \cos \theta +\frac{ \partial u }{ \partial y } \sin \theta
\end{align*}
\end{description}
Flujo \\ %%%Figura
$\Omega$ región \qquad $\partial \Omega$ frontera de $\Omega$ \qquad $\sigma$ flujo (campo vectorial)
\begin{align*}
\sigma_{_{n}} &=\, \sigma \cdot n & \sum w = \int_{ \partial w } \, \sigma_{_{n}} (s) \, ds \quad \text{flujo neto en} \, \partial w
\end{align*}
en una región rectangular \\ %%%Figura
$w$ tiene área $\Delta x \Delta y$
\subsection*{ Divergencia en $P_{_{0}}$ }
\subsubsection*{Definición}
$\displaystyle \lim_{ w \to 0 } \, \frac{ \text{ flujo neto cruzando la frontera } }{ \text{área de la región} } = \text{ divergencia del flujo en $P_{_{0}}$ }$ \\
en el caso de la región rectangular tenemos
\begin{align*}
\text{Flujo neto} &=\, \Delta y ( \sigma_{_{x}} + \Delta \sigma_{_{x}} -\sigma_{_{x}} ) +\Delta x ( \sigma_{_{y}} + \Delta \sigma_{_{y}} -\sigma_{_{y}} ) \\
&=\, \Delta y \, \Delta \sigma_{_{x}} +\Delta x \, \Delta \sigma_{_{y}} \\
\intertext{ área de la región=$\Delta x \, \Delta y$ }
\lim_{ \overset{w \to 0} { \Delta x \, \Delta y \to 0} } \, \frac{ \Delta y \, \Delta \sigma_{_{x}} +\Delta x \, \Delta \sigma_{_{y}} }{ \Delta x \, \Delta y } &=\, \lim_{ \Delta x \to 0 } \, \frac{ \Delta \sigma_{_{x}} }{ \Delta x } +\lim_{ \Delta y \to 0 } \, \frac{ \Delta \sigma_{_{y}} }{ \Delta y } \\
&=\, \left. \frac{ \partial \sigma_{_{x}} }{ \partial x } +\frac{ \partial \sigma_{_{y}} }{ \partial y } \right|_{ P_{_{0}} } \\
&=\, \text{div} \, \sigma ( P_{_{0}} ) \\
\intertext{ se denota como $\text{div} \, \sigma$ o $\nabla \cdot \sigma$ }
\nabla &=\, \frac{ \partial }{ \partial x } \hat{i} +\frac{ \partial }{ \partial y } \hat{j} \\
\sigma &=\, \sigma_{_{x}} \hat{i} +\sigma_{_{y}} \hat{j} \\
\nabla \cdot \sigma &=\, \frac{ \partial \sigma_{_{x}} }{ \partial x } +\frac{ \partial \sigma_{_{y}} }{ \partial y }
\end{align*}
$\nabla \cdot \sigma$ flujo neto en un punto \\ %%%Figura
flujo neto en $\displaystyle \Omega \,:\, \sum \, \Omega = \int_{ \Omega } \, \nabla \cdot \sigma \, dA \qquad (dA=dx \, dy)$ \\
este flujo neto en $\Omega$ es igual al flujo neto cruzando $\partial \Omega$
$$\int_{ \partial \Omega } \, \nabla \cdot \sigma \, dS \qquad (\sigma_{_{n}} = \sigma \cdot n)$$
entonces $\displaystyle \int_{ \Omega } \, \nabla \cdot \sigma \, dA = \int_{ \partial \Omega } \, \sigma \cdot n \, dS$ \quad teorema de la divergencia de \textit{Gauss}
\subsection*{Desarrollo de Modelos en Ecuaciones Diferenciales Parciales}
La ecuación constitutiva $\sigma (x,y) = -k(x,y) \, \nabla u(x,y) \,;\, -k(x,y)$ módulo del material \\
principio de conservación: flujo neto cruzando la frontera es el flujo aportado por la fuente $f$ %%%Figura
\begin{align*}
\Longrightarrow \int_{ \partial \Omega } \, \sigma \cdot n \, dS &=\, \int_{ \Omega } \, f(x,y) \, dA \\
\intertext{ si esto se cumple para cada $\omega$ }
\int_{ \partial \omega } \, \sigma \cdot n \, dS &=\, \int_{ \omega } \, f(x,y) \, dA \\
\intertext{ por el teorema de la divergencia }
\int_{ \omega } \, \nabla \cdot \sigma \, dA &=\, \int_{ \omega } \, f(x,y) \, dA \\
\int_{ \omega } \, ( \nabla \cdot \sigma - f ) \, dA &=\, 0
\end{align*}
como es cierto para cualquier $\omega$ en $\Omega$, entonces $\nabla \cdot \sigma -f=0$ en $\Omega$ \\
para ciertas condiciones de suavidad de $f$ y $u$
\begin{align*}
\nabla \cdot \sigma &=\, f(x,y) \, \text{en} \, \sigma \\
\nabla \cdot ( -k(x,y) \, \nabla u(x,y) ) &=\, f(x,y) \\
\intertext{ este modelo considera solamente difusión del flujo, si $k$ es constante entonces }
-k \, \nabla \cdot \nabla u &=\, f \\
-k \, \nabla^{^{2}} u &=\, f(x,y) \\
-k \left( \frac{ \partial^{^{2}} u }{ \partial x^{^{2}} } +\frac{ \partial^{^{2}} u }{ \partial y^{^{2}} } \right) &=\, f(x,y) \quad \text{ ecuación de \textit{Poisson} }
\end{align*}
Si $f(x,y)=0$ tenemos que $\nabla^{^{2}} u = 0$ ecuación de \textit{Laplace} \\
también podemos agregar términos al modelo, por ejemplo si existe fuente interna
$$-\nabla \cdot ( k \, \nabla u ) +b(x,y) \, u = f(x,y)$$
también existen otros mecanismos de flujo, como la convección forzada o advección \\
para completar nuestra formula de integración por partes en dos y tres dimensiones se puede probar que
$$\nabla \cdot (v \, \nabla u) = v \, \nabla^{^{2}} u +\nabla v \cdot \nabla u$$
aplicando el teorema de la divergencia probar que
\begin{align*}
-\int_{ \Omega } \, v \, \nabla^{^{2}} u \, dx \, dy &=\, \int_{ \Omega } \, \nabla v \cdot \nabla u \, dx \, dy -\int_{ \partial \Omega } \, v \, \frac{ \partial u }{ \partial n } \, dS \\
-v \, \nabla^{^{2}} u &=\, \nabla v \cdot \nabla u - \nabla \cdot (v \, \nabla u) \\
\int_{ \Omega } \, \nabla \cdot \sigma \, dA &=\, \int_{ \partial \Omega } \, \sigma \cdot n \, dS \qquad \sigma = v \, \nabla u \\
\Longrightarrow\, -\int_{ \Omega } \, v \, \nabla^{^{2}} u \, dA &=\, \int_{ \Omega } \, \nabla v \cdot \nabla u \, dA -\int_{ \partial \Omega } \, v \, \nabla u \cdot n \, dS \\
&=\, \int_{ \Omega } \, \nabla v \cdot \nabla u \, dA -\int_{ \partial \Omega } \, v \, \frac{ \partial u }{ \partial n } \, dS
\end{align*}
que es nuestra formula de integración por partes, un modelo para problema de difusión
$$-\nabla \cdot ( k \, \nabla u ) +bu = f$$
intergración por partes (más general)
$$v \nabla \cdot (k \, \nabla u) = \nabla \cdot (vk \, \nabla u) -k \, \nabla u \, \nabla v$$
\subsection*{Condiciones de Frontera en Dos Dimensiones}
\begin{description}
\item [ De \textit{Dirichlet} (condiciones esenciales) ] $u(s) = \hat{u} (s) \quad s \in \partial \Omega$
%%%Figura
\item [De flujo (condiciones naturales) ] $-k(s) \dfrac{ \partial u(s) }{ \partial n } = p(s) \left( u(s) -\hat{u} (s) \right)$ ley de enfriamiento de \textit{Newton} \\
%%%Figura
condiciones de flujo cuando existe discontinuidad en el material
$$\left\ldbrack -k \dfrac{ \partial u }{ \partial n } \right\rdbrack_{_{ \Gamma }} = 0$$
%%%Figura
\end{description}
\subsection*{Formulación Débil del Problema de Valor de Frontera en Dos Dimensiones}
\subsubsection*{Ejemplo}
$-\nabla^{^{2}} u +\lambda u = f(x,y)$ en $\Omega \qquad u(x,y)=0$ en $\partial \Omega \qquad \lambda$ constante \\
$$\left( -\nabla^{^{2}} u +\lambda u \right) \, v(x,y) = f(x,y) \, v(x,y) \quad \forall \, v \in H'_{_{0}}$$
integrando
\begin{align*}
\int_{ \Omega } \, \left( -v \, \nabla^{^{2}} u +\lambda u \right) \, v \, dA &=\, \int_{ \Omega } \, f(x,y) \, dA \\
\int_{ \Omega } \, \left( -v \, \nabla^{^{2}} u +\lambda u v \right) \, dA &=\, \int_{ \Omega } \, f(x,y) \, v \, dA \\
\intertext{ integrando por partes }
\int_{ \Omega } \, v \, \nabla^{^{2}} u \, dA &=\, \int_{ \Omega } \, \nabla u \cdot \nabla v -\int_{ \partial \Omega } \, v \, \frac{ \partial u }{ \partial n } \, dS \\
\intertext{ entonces nos queda }
\int_{ \Omega } \, \nabla u \cdot \nabla v \, dA + \int_{ \Omega } \, \lambda uv \, dA -\int_{ \partial \Omega } \, v \, \frac{ \partial u }{ \partial n } \, dS &=\, \int_{ \Omega } \, fv \, dA \\
\int_{ \Omega } \, ( \nabla u \cdot \nabla v +\lambda uv ) \, dA &=\, \int_{ \Omega } \, fv \, dA \qquad \forall \, v \in H'_{_{0}} ( \Omega ) \\
\intertext{ la cual es nuestra formulación débil simétrica }
\int_{ \Omega } \, \left( \frac{ \partial u }{ \partial x } \frac{ \partial v }{ \partial x } +\frac{ \partial u }{ \partial y } \frac{ \partial v }{ \partial y } +\lambda uv \right) \, dx \, dy &=\, \int_{ \Omega } \, fv \, dx \, dy \\
\intertext{ la norma $H':$ }
\| v \|_{_{H'}}^{^{2}} &=\, \| v \|_{_{ L^{^{2}} ( \Omega ) }}^{^{2}} +\left\| \frac{ \partial v }{ \partial x } \right\|_{ L^{^{2}} ( \Omega ) }^2 +\left\| \frac{ \partial v }{ \partial y } \right\|_{ L^{^{2}} ( \Omega ) }^2 \\
&=\, \int_{ \Omega } \, \left[ v^{^{2}} +\left( \frac{ \partial v }{ \partial x } \right)^2 +\left( \frac{ \partial v }{ \partial y } \right)^2 \right] \, dx \, dy
\end{align*}
obtener las formulaciones débiles en dos y tres dimensiones no representa mayor dificultad, las dificultades se presentan debido a que los elementos pueden tomar muchas formas \\
%%%Figura
interpolando a través de una cuadrática %%%Figura
\subsection*{Interpolación Triangular en Dos Dimensiones}
Sea la función lineal $v_{_{h}} (x,y) = \alpha +\beta x +\gamma y$ \\
observemos que para determinar $\alpha, \beta$ y $\gamma$ ocupamos tres puntos independientes en el plano,lo cuales forman triángulos, entonces
\begin{align*}
v_{_{1}} &=\, v_{_{h}}^{^{e}} ( x_{_{1}} , y_{_{1}} ) & v_{_{2}} &=\, v_{_{h}}^{^{e}} ( x_{_{2}} , y_{_{2}} ) & v_{_{3}} &=\, v_{_{h}}^{^{e}} ( x_{_{3}} , y_{_{3}} ) \\
&=\, \alpha_{_{1}} +\beta_{_{2}} x_{_{1}} +\gamma_{_{3}} y_{_{1}} & &=\, \alpha_{_{2}} +\beta_{_{2}} x_{_{2}} +\gamma_{_{3}} y_{_{2}} & &=\, \alpha_{_{3}} +\beta_{_{2}} x_{_{3}} +\gamma_{_{3}} y_{_{3}}
\end{align*}
en un elemento de $\Omega_{_{e}}$ de $\Omega$, resolviendo el sistema para $\alpha, \beta$ y $\gamma$
\begin{align*}
\alpha &=\, \frac{1}{ 2 A_{_{e}} } \left[ v_{_{1}} ( x_{_{2}} y_{_{3}} -x_{_{3}} y_{_{2}} ) +v_{_{2}} ( x_{_{3}} y_{_{1}} -x_{_{1}} y_{_{3}} ) +v_{_{3}} ( x_{_{1}} y_{_{2}} -x_{_{2}} y_{_{1}} ) \right] \\
\beta &=\, \frac{1}{ 2 A_{_{e}} } \left[ v_{_{1}} ( y_{_{2}} - y_{_{3}} ) +v_{_{2}} ( y_{_{3}} - y_{_{1}} ) +v_{_{3}} ( y_{_{1}} - y_{_{2}} ) \right] \\
\gamma &=\, \frac{1}{ 2 A_{_{e}} } \left[ v_{_{1}} ( x_{_{3}} - x_{_{2}} ) +v_{_{2}} ( x_{_{1}} - x_{_{3}} ) +v_{_{3}} ( x_{_{2}} - x_{_{1}} ) \right] \\
\intertext{ con }
A_{_{e}} &=\, \frac{1}{2} \,
\begin{vmatrix}
1 & x_{_{1}} & y_{_{1}} \\
1 & x_{_{2}} & y_{_{2}} \\
1 & x_{_{3}} & y_{_{3}}
\end{vmatrix} \\
\intertext{ entonces $V_{_{h}}^{^{e}} (x,y) = v_{_{1}} \varphi_{_{1}}^{^{e}} (x,y) +v_{_{2}} \varphi_{_{2}}^{^{e}} (x,y) +v_{_{3}} \varphi_{_{3}}^{^{e}} (x,y)$ }
\Psi_{_{1}}^{^{e}} (x,y) &=\, \frac{1}{ 2 A_{_{e}} } [ ( x_{_{2}} y_{_{3}} -x_{_{3}} y_{_{2}} ) +( y_{_{2}} - y_{_{3}} ) x +( x_{_{3}} - x_{_{2}} ) y ] \\
\Psi_{_{2}}^{^{e}} (x,y) &=\, \frac{1}{ 2 A_{_{e}} } [ ( x_{_{3}} y_{_{1}} -x_{_{1}} y_{_{3}} ) +( y_{_{3}} - y_{_{1}} ) x +( x_{_{1}} - x_{_{3}} ) y ] \\
\Psi_{_{3}}^{^{e}} (x,y) &=\, \frac{1}{ 2 A_{_{e}} } [ ( x_{_{1}} y_{_{2}} -x_{_{2}} y_{_{1}} ) +( y_{_{1}} - y_{_{2}} ) x +( x_{_{2}} - x_{_{1}} ) y ]
\end{align*}
encontramos $\alpha, \beta$ y $\gamma$ con la regla de \textit{Cramer}
$$\begin{bmatrix}
1 & x_{_{1}} & y_{_{1}} \\
1 & x_{_{2}} & y_{_{2}} \\
1 & x_{_{3}} & y_{_{3}}
\end{bmatrix} \,
\begin{bmatrix}
\alpha \\ \beta \\ \gamma
\end{bmatrix} =
\begin{bmatrix}
v_{_{1}} \\ v_{_{2}} \\ v_{_{3}}
\end{bmatrix}$$
\begin{align*}
\alpha &=\, \frac{
\begin{vmatrix}
v_{_{1}} & x_{_{1}} & y_{_{1}} \\
v_{_{2}} & x_{_{2}} & y_{_{2}} \\
v_{_{3}} & x_{_{3}} & y_{_{3}}
\end{vmatrix} }{ |A| } &
\beta &=\, \frac{
\begin{vmatrix}
1 & v_{_{1}} & y_{_{1}} \\
1 & v_{_{2}} & y_{_{2}} \\
1 & v_{_{3}} & y_{_{3}}
\end{vmatrix} }{ |A| } &
\gamma &=\, \frac{
\begin{vmatrix}
1 & x_{_{1}} & v_{_{1}} \\
1 & x_{_{2}} & v_{_{2}} \\
1 & x_{_{3}} & v_{_{3}}
\end{vmatrix} }{ |A| }
\end{align*}
\subsection*{ Interpolación con Polinomios de Orden Superior en Dos Dimensiones }
$\begin{matrix}
& & & 1 & & & & & \\
& & x & & y & & & & \text{grado 1} \\
& x^{^{2}} & & xy & & y^{^{2}} & & & \text{grado 2} \\
x^{^{3}} & & x^{^{2}} y & & x y^{^{2}} & & y^{^{3}} & & \text{grado 3}
\end{matrix}$ \\
es facil verificar que un polinomio de grado $k$ tiene $\dfrac{ (k+1)(k+2) }{2}$ términos, ocupamos $\dfrac{ (k+1)(k+2) }{2}$ nodos en cada elemento \\
%%%Figura
\subsection*{Cambio de Coordenadas}
\begin{align*}
V_{_{h}}^{^{e}} (x,y) &=\, v_{_{1}} \Psi_{_{1}}^{^{e}} (x,y) +v_{_{2}} \Psi_{_{2}}^{^{e}} (x,y) +v_{_{3}} \Psi_{_{3}}^{^{e}} (x,y) \\
&=\, v_{_{1}} \Psi_{_{1}}^{^{e}} +v_{_{2}} \Psi_{_{2}}^{^{e}} +v_{_{3}} \Psi_{_{3}}^{^{e}}
\end{align*}
vamos a pasar de un sistema cartesiano a un sistema de coordenadas naturales o normalizado, el más simple está dado por el triángulo que tiene sus lados en los ejes
$$\xi = 0 \qquad \eta = 0 \qquad 1-\xi-\eta = 0$$
%%%Figura
definimos la transformación como
\begin{align*}
T_{_{e}} &:\, \widehat{ \Omega } \longrightarrow \Omega_{_{e}} & T_{_{e}} &=\,
\begin{cases}
x = x ( \xi , \eta ) \\
y = y ( \xi , \eta )
\end{cases}
\end{align*}
por
\begin{equation} \label{eq:01}
V_{_{h}}^{^{e}} (x,y) \,:\,
\begin{cases}
\widehat{ \Psi }_{_{1}} = 1-\xi-\eta \\
\widehat{ \Psi }_{_{2}} = \xi \\
\widehat{ \Psi }_{_{3}} = \eta
\end{cases}
\end{equation}
\begin{equation} \label{eq:02}
x = \sum_{j=1}^3 \, x_{_{i}} \widehat{ \Psi }_{_{j}} ( \xi , \eta ) \qquad y = \sum_{j=1}^3 \, y_{_{j}} \widehat{ \Psi }_{_{j}} ( \xi , \eta )
\end{equation}
sustituyendo \eqref{eq:01} en \eqref{eq:02} : $T_{_{e}}^{^{-1}} : \Omega_{_{e}} \longrightarrow \widehat{ \Omega }$
\begin{align*}
\xi &=\, \xi (x,y) \\
&=\, \frac{1}{ 2 A_{_{e}} } [ ( y_{_{3}} - y_{_{1}} ) ( x- x_{_{1}} ) -( x_{_{3}} -x_{_{1}} ) ( y- y_{_{1}} ) ] \\
\eta &=\, \eta (x,y) \\
&=\, \frac{1}{ 2 A_{_{e}} } [ ( y_{_{1}} - y_{_{2}} ) ( x- x_{_{1}} ) -( x_{_{0}} -x_{_{1}} ) ( y- y_{_{1}} ) ] \\
\intertext{ donde $A_{_{e}}$ representa el área del elemento $\Omega_{_{e}}$, obtenemos las funciones base }
\Psi_{_{1}}^{^{e}} (x,y) &=\, \widehat{ \Psi }_{_{1}} ( \xi , \eta ) \\
\Psi_{_{2}}^{^{e}} (x,y) &=\, \widehat{ \Psi }_{_{2}} ( \xi , \eta ) \\
\Psi_{_{3}}^{^{e}} (x,y) &=\, \widehat{ \Psi }_{_{3}} ( \xi , \eta )
\end{align*}
\subsection*{Interpolación Rectangular en Dos Dimensiones}
Usamos como aproximación de los cuatro puntos un polinomio bilineal, el cual es lineal en las variables $x, y$ que tiene la forma general
$$v(x,y) = a_{_{1}} +a_{_{2}} x +a_{_{3}} y +a_{_{4}} xy \qquad a_{_{i}} \, \text{constantes} \quad i=1, \ldots, 4$$
%%%Figura
Si $\bar{x}_{_{i}} = ( x_{_{i}} , y_{_{i}} )$
\begin{align*}
v_{_{1}} &=\, a_{_{1}} +a_{_{2}} x_{_{1}} +a_{_{3}} y_{_{1}} +a_{_{4}} x_{_{1}} y_{_{1}} & v_{_{2}} &=\, a_{_{1}} +a_{_{2}} x_{_{2}} +a_{_{3}} y_{_{2}} +a_{_{4}} x_{_{2}} y_{_{2}} \\
v_{_{3}} &=\, a_{_{1}} +a_{_{2}} x_{_{3}} +a_{_{3}} y_{_{3}} +a_{_{4}} x_{_{3}} y_{_{3}} & v_{_{4}} &=\, a_{_{1}} +a_{_{2}} x_{_{4}} +a_{_{3}} y_{_{4}} +a_{_{4}} x_{_{4}} y_{_{4}} \\
f_{_{1}} ( x_{_{1}} , y_{_{1}} ) &=\, \frac{ x-x_{_{0}} }{ x_{_{1}} - x_{_{0}} } \, f ( x_{_{1}} , y_{_{1}} ) +\frac{ x-x_{_{1}} }{ x_{_{2}} - x_{_{1}} } \, f ( x_{_{2}} , y_{_{1}} ) & f_{_{2}} ( x_{_{1}} , y_{_{2}} ) &=\, \frac{ x-x_{_{2}} }{ x_{_{1}} - x_{_{2}} } \, f ( x_{_{1}} , y_{_{2}} ) +\frac{ x-x_{_{1}} }{ x_{_{2}} - x_{_{1}} } \, f ( x_{_{2}} , y_{_{2}} ) \\
\intertext{ el polinomio bilineal que pasa por esos puntos es }
f(x,y) &=\, \frac{ y-y_{_{2}} }{ y_{_{1}} - y_{_{2}} } \, f_{_{1}} ( x_{_{1}} , y_{_{1}} ) +\frac{ y-y_{_{1}} }{ y_{_{2}} - y_{_{1}} } \, f_{_{2}} ( x_{_{1}} , y_{_{2}} ) \\
&=\,
\begin{pmatrix}
x-x_{_{2}} \\
x-x_{_{1}}
\end{pmatrix} \,
\begin{pmatrix}
c_{_{11}} & & c_{_{12}} \\
c_{_{21}} & & c_{_{22}}
\end{pmatrix} \,
\begin{pmatrix}
y-y_{_{2}} \\
y-y_{_{1}}
\end{pmatrix}
\end{align*}
donde $c_{_{ij}} = \dfrac{ f ( x_{_{i}} , y_{_{j}} ) }{ ( x_{_{i}} - x_{_{3-i}} ) ( y_{_{j}} - y_{_{3-j}} ) }$ para $i,j=1,2$ \\
como las funciones base serán polinomios bilineales, estos cumpliran que en el nodo principal serán uno, y cero en los tres restantes. Sea
$$C =
\begin{pmatrix}
c_{_{11}} & & c_{_{12}} \\
c_{_{21}} & & c_{_{22}}
\end{pmatrix}$$
entonces tendremos los siguientes cuatro casos para la forma que tendra $c$ al definir $\phi_{_{i}}$ a trozos
\begin{enumerate}
\item $c =
\begin{bmatrix}
0 & & 0 \\ \\
0 & & \dfrac{1}{ ( x_{_{2}} - x_{_{1}} ) ( y_{_{2}} - y_{_{1}} ) }
\end{bmatrix}$ %%%Figura
\item $c =
\begin{bmatrix}
0 & & \dfrac{1}{ ( x_{_{1}} - x_{_{2}} ) ( y_{_{2}} - y_{_{1}} ) } \\ \\
0 & & 0
\end{bmatrix}$ %%%Figura
\item $c =
\begin{bmatrix}
\dfrac{1}{ ( x_{_{1}} - x_{_{2}} ) ( y_{_{1}} - y_{_{2}} ) } & & 0 \\ \\
0 & & 0
\end{bmatrix}$ %%%Figura
\item $c =
\begin{bmatrix}
0 & & 0 \\ \\
\dfrac{1}{ ( x_{_{2}} - x_{_{1}} ) ( y_{_{1}} - y_{_{2}} ) } & & 0
\end{bmatrix}$ %%%Figura
\end{enumerate}
%%%Figura
\subsection*{Elementos Triangulares y Rectangulares}
\begin{description}
\item [ Lineal ] $a_{_{1}} +a_{_{2}} x +a_{_{3}} y$ %%%Figura
\item [ Cuadrático ] $a_{_{1}} +a_{_{2}} x +a_{_{3}} y +a_{_{4}} xy +a_{_{5}} x^{^{2}} +a_{_{6}} y^{^{2}}$ %%%Figura
\item [ Cúbico ] $a_{_{1}} +a_{_{2}} x +a_{_{3}} y +a_{_{4}} xy +a_{_{5}} x^{^{2}} +a_{_{6}} y^{^{2}} +a_{_{7}} xy^{^{2}} +a_{_{8}} x^{^{2}} y +a_{_{9}} x^{^{3}} +a_{_{10}} y^{^{3}}$ %%%Figura
\end{description}
\subsection*{Elemento Estandar Triangular}
%%%Figura
Cuadráticas (seis funciones base)
\begin{align*}
\Psi_{_{1}} &=\, \frac{ ( 1 -\xi -\eta ) ( 1/2 -\xi -\eta ) }{ (1-0-0) ( 1/2-0-0 ) } & \Psi_{_{2}} &=\, \frac{ ( \xi -1/2 ) \xi }{ (1-1/2) 1 } & \Psi_{_{3}} &=\, \frac{ ( \eta -1/2 ) \eta }{ (1-1/2) 1 } \\
&=\, ( 1 -\xi -\eta ) ( 1 -2 \xi -2 \eta ) & &=\, 2 ( \xi -1/2 ) \xi & &=\, 2 \eta ( \eta -1/2 ) \\
\Psi_{_{4}} &=\, \frac{ \xi ( 1- \xi -\eta ) }{ 1/2 ( 1 -1/2 -0 ) } & \Psi_{_{5}} &=\, \frac{ \xi \eta }{ 1/2 (1/2) } & \Psi_{_{6}} &=\, \frac{ \eta ( 1 -\xi -\eta ) }{ 1/2 ( 1 -0 -1/2 ) } \\
&=\, 4 \xi ( 1- \xi -\eta ) & &=\, 4 \xi \eta & &=\ 4 \eta ( 1- \xi -\eta )
\end{align*}
\subsection*{Elemento Estandar Rectangular}
%%%Figura
\begin{align*}
\Psi_{_{1}} &=\, \frac{ ( \xi+1 ) ( \eta-1 ) }{ (-1-1)(-1-1) } & \Psi_{_{2}} &=\, \frac{ ( \xi+1 ) ( \eta-1 ) }{ (1+1)(-1-1) } \\
&=\, \frac{ ( \xi+1 ) ( \eta-1 ) }{4} & &=\, - \frac{ ( \xi+1 ) ( \eta-1 ) }{4} \\
\Psi_{_{3}} &=\, \frac{ ( \xi+1 ) ( \eta+1 ) }{ (1+1)(1+1) } & \Psi_{_{4}} &=\, \frac{ ( \xi-1 ) ( \eta+1 ) }{ (-1-1)(1+1) } \\
&=\, \frac{ ( \xi+1 ) ( \eta+1 ) }{4} & &=\, - \frac{ ( \xi-1 ) ( \eta+1 ) }{4}
\end{align*}
Bicuadráticos $a_{_{1}} +a_{_{2}} x +a_{_{3}} y +a_{_{4}} xy +a_{_{5}} xy^{^{2}} +a_{_{6}} x^{^{2}} y +a_{_{7}} x^{^{2}} +a_{_{8}} y^{^{2}} y +a_{_{9}} x^{^{2}} y^{^{2}}$ \\
habria que determinar nueve funciones base
$$\Psi_{_{1}} = \frac{ \eta ( \eta-1 ) \xi ( \xi-1 ) }{ -1(-1-1) -1(-1-1) }$$
\subsection*{Descripción Global y Local de los Elementos}
Interpolantes lineales una dimensión \\ %%%Figura
$x_{_{i}}$ coordenadas de los nodos, $n_{_{ \text{el} }}$ número de elementos $(e)$ \\
\begin{tabular}{l|l|l}
& \textcolor{blue}{Global} & \textcolor{blue}{Local} \\\hline
Dominio & $[ x_{_{i}} , x_{_{i+1}} ]$ & $[ \xi_{_{1}} , \xi_{_{2}} ] = [-1,1]$ \\
Grados de libertad & $\{ u_{_{i}} , u_{_{i+1}} \}$ & $\{ u_{_{1}} , u_{_{2}} \}$ \\
Funciones de forma & $\{ \varphi_{_{i}} , \varphi_{_{i+1}} \}$ & $\{ \Psi_{_{1}} , \Psi_{_{2}} \}$ \\
Función interpolante & $u^{^{h}} (x) = u_{_{i}} \varphi_{_{i}} +u_{_{i+1}} \varphi_{_{i+1}}$ & $u^{^{h}} ( \xi ) = u_{_{1}} \varphi_{_{1}} +u_{_{2}} \varphi_{_{2}}$ \\
Nodos & $\{ x_{_{i}} , x_{_{i+1}} \}$ & $\{ \xi_{_{1}} , \xi_{_{2}} \}$ \\
\end{tabular}
%%%Figura
\begin{align*}
\xi (x) &=\, \frac{ 2x -x_{_{i}} -x_{_{i+1}} }{ h_{_{i}} } & x( \xi ) &=\, \frac{ h_{_{i}} \xi +x_{_{i}} +x_{_{i+1}} }{2} & \xi ( x_{_{i}} ) &=\, - \frac{ h_{_{i}} }{ h_{_{i}} } & \xi ( x_{_{i+1}} ) &=\, 1 \\
& & & & &=\, -1 \\
x(-1) &=\, x_{_{i}} & x(1) &=\, x_{_{i+1}} \\
\Psi_{_{1}} ( \xi ) &=\, \frac{1}{2} (1-\xi) & \Psi_{_{2}} ( \xi ) &=\, \frac{1}{2} (1+\xi) & \Psi'_{_{1}} ( \xi ) &=\, -\frac{1}{2} & \Psi'_{_{2}} ( \xi ) &=\, \frac{1}{2}
\end{align*}
$$x^{^{e}} ( \xi ) = \Psi_{_{1}} ( \xi ) x_{_{i}}^{^{e}} +\Psi_{_{2}} ( \xi ) x_{_{i+1}}^{^{e}}$$
consideremos el problema modelo
$$\begin{cases}
-\dfrac{d}{dx} \left( p(x) \dfrac{du}{dx} \right) +r(x) u = f(x) & a<x<b \\
u(a)=A & u(b)=B
\end{cases}$$
$Mu=B$ \\
$M$ matriz global, $m^{^{e}}$ matriz por elemento \\
$B$ vector global, $b^{^{e}}$ vector por elemento
sea $M_{_{ij}} = \mathcal{A} ( \varphi_{_{i}} , \varphi_{_{j}} )$ donde
\begin{align*}
M &=\, \sum_{e=1}^{ n_{_{ \text{el} }} } \, M^{^{e}} & M^{^{e}} &=\, M_{_{ij}}^{^{e}} \\
B &=\, \sum_{e=1}^{ n_{_{ \text{el} }} } \, B^{^{e}} & B^{^{e}} &=\, B_{_{i}}^{^{e}}
\end{align*}
$M_{_{ij}}^{^{e}} = 0$ si $i \neq ( e \, \vee \, e+1 ) \, \vee \, j \neq ( e \, \vee \, e+1 )$ \\
$B_{_{i}}^{^{e}} = 0$ si $i \neq ( e \, \vee \, e+1 )$ \\
%%%Figura
$m^{^{e}} = m_{_{ij}}^{^{e}} \quad (2 \times 2) \quad (i,j=1,2)$ \\
$b^{^{e}} = b_{_{i}}^{^{e}} \quad (2 \times 1) \quad (i=1,2)$ \\
Matriz y vector (por elemento) con tamaño que depende del grado del interpolante: lineal $2 \times 2$, cuadrático $3 \times 3$, cúbico $4 \times 4$ \\
entonces la estrategia consiste en generar las matrices $m^{^{e}}$ y vectores $b^{^{e}}$ para $e = 1, \ldots, n_{_{ \text{el} }}$ y luego ensamblar (o armar) $M, B$ a partir de $m^{^{e}}$ y $b^{^{e}}$ \\
Necesitamos cierta información que almacenamos en una matriz llamada $LM$, las dimensiones de $LM$ son: $n_{_{ \text{en} }}$ número de nodos del elemento por $n_{_{ \text{el} }}$ \\
\begin{tabular}{c|c|c|c|cc|c|c|}
& \textcolor{blue}{1} & \textcolor{blue}{2} & \textcolor{blue}{3} & \ldots & \ldots & & $n_{_{ \text{el} }}$ \\\hline
\textcolor{blue}{1} & 1 & 2 & 3 & \ldots & \ldots & $n-2$ & $n-1$ \\
\textcolor{blue}{2} & 2 & 3 & \ldots & \ldots & $n-1$ & 0 \\
\end{tabular} \\
número de nodos del elemento $\times$ número de elementos. $n_{_{ \text{en} }} \times n_{_{ \text{el} }}$ (caso de interpolante lineal) \\
entonces podemos ensamblar $M$ con el siguiente algoritmo
\begin{align*}
M_{_{ee}} \longleftarrow& M_{_{ee}} +m_{_{11}}^{^{e}} \\
M_{_{e, e+1}} \longleftarrow& M_{_{e, e+1}} +m_{_{12}}^{^{e}} \qquad e = 1, \ldots, n_{_{ \text{el} }} -1 \\
M_{_{e+1, e}} \longleftarrow& M_{_{e+1, e}} +m_{_{21}}^{^{e}} \\
M_{_{e+1, e+1}} \longleftarrow& M_{_{e+1, e+1}} +m_{_{22}}^{^{e}} \\
B_{_{e}} \longleftarrow& B_{_{e}} +b_{_{1}}^{^{e}} \qquad e = 1, \ldots, n_{_{ \text{el} }} -1 \\
B_{_{e+1}} \longleftarrow& B_{_{e+1}} +b_{_{2}}^{^{e}} \\
\text{para} \quad n_{_{ \text{el} }} & M_{_{nn}} \longleftarrow M_{_{nn}} +M_{_{11}}^{^{ n_{_{ \text{el} }} }} \\
& B_{_{n}} \longleftarrow B_{_{n}} +b_{_{1}}^{^{ n_{_{ \text{el} }} }}
\end{align*}
inicialmente $M=0$
$$\begin{bmatrix}
m_{_{11}}^{^{1}} & m_{_{12}}^{^{1}} & 0 & 0 & \ldots & 0 & 0 \\
m_{_{21}}^{^{1}} & m_{_{22}}^{^{1}} + m_{_{11}}^{^{2}} & m_{_{12}}^{^{2}} & 0 & \ldots & 0 & 0 \\
0 & m_{_{21}}^{^{2}} & m_{_{22}}^{^{2}} + m_{_{11}}^{^{3}} & m_{_{12}}^{^{3}} & \ldots & 0 & 0 \\
0 & 0 & m_{_{21}}^{^{3}} & m_{_{22}}^{^{3}} & \ldots & 0 & 0 \\
\vdots & \vdots & \vdots & \vdots & \ddots & \ddots & \ldots \\
0 & 0 & 0 & 0 & \ldots & m_{_{22}}^{^{ n_{_{ \text{el} - 1 }} }} + m_{_{11}}^{^{ n_{_{ \text{el} - 1 }} }} & m_{_{12}}^{^{ n_{_{ \text{el} - 1 }} }} \\
0 & 0 & 0 & 0 & \ldots & m_{_{21}}^{^{ n_{_{ \text{el} - 1 }} }} & m_{_{22}}^{^{ n_{_{ \text{el} - 1 }} }} + m_{_{11}}^{^{ n_{_{ \text{el} }} }} \\
\end{bmatrix} \qquad B =
\begin{bmatrix}
b_{_{1}}^{^{1}} \\
b_{_{2}}^{^{1}} +b_{_{1}}^{^{2}} \\
b_{_{2}}^{^{2}} +b_{_{1}}^{^{3}} \\
\vdots \\
b_{_{2}}^{^{ n_{_{ \text{el} - 2 }} }} +b_{_{1}}^{^{ n_{_{ \text{el} - 1 }} }} \\
b_{_{2}}^{^{ n_{_{ \text{el} - 1 }} }} +b_{_{1}}^{^{ n_{_{ \text{el} }} }}
\end{bmatrix}$$
\subsection*{Cálculo de la Matriz y Vector por Elemento}
Sea $g : [ x_{_{1}} , x_{_{2}} ] \longrightarrow \mathbb{R}$ una función integrable y sea $x = [ \xi_{_{1}} , \xi_{_{2}} ] \longrightarrow [ x_{_{1}} , x_{_{2}} ]$ continuamente derivable con $x ( \xi_{_{1}} ) x_{_{1}}$ y $x ( \xi_{_{2}} ) x_{_{2}}$ entonces
\begin{align*}
\int_{ x_{_{1}} }^{ x_{_{2}} } \, g(x) \, dx &=\, \int_{ \xi_{_{1}} }^{ \xi_{_{2}} } \, g( x ( \xi ) ) \, \frac{ dx ( \xi ) }{ d \xi } \, d \xi \\
\intertext{ además como }
\frac{ \partial g( x( \xi ) ) }{ \partial \xi } &=\, \frac{ \partial g( x( \xi ) ) }{ \partial x } \, \frac{ \partial x( \xi ) }{ \partial \xi } \\
\intertext{ entonces }
m_{_{ij}}^{^{e}} &=\, \int_{ \Omega^{^{e}} } \, \left[ \frac{ d \varphi_{_{j}} (x) }{dx} \frac{ d \varphi_{_{j}} (x) }{dx} +r(x) \varphi_{_{i}} (x) \varphi_{_{j}} (x) \right] \, dx \qquad \Omega^{^{e}} : [ x_{_{i}} , x_{_{i+1}} ] \\
&=\, \int_{-1}^1 \, \left[ p ( x( \xi ) ) \frac{ d \varphi_{_{j}} ( x( \xi ) ) }{dx} \frac{ d \varphi_{_{j}} ( x( \xi ) ) }{dx} +r ( x( \xi ) ) \varphi_{_{i}} ( x( \xi ) ) \varphi_{_{j}} ( x( \xi ) ) \right] \, \frac{dx}{d \xi} \, d\xi \\
&=\, \int_{-1}^1 \, \left[ p( \xi ) \frac{ d \Psi_{_{i}} ( \xi ) }{d \xi} \frac{ d \Psi_{_{j}} ( \xi ) }{d \xi} \, \underbrace{ \left( \frac{ d \xi }{dx} \right)^2 }_{ \left( \frac{dx}{d \xi} \right)^{-2} } +r( \xi ) \Psi_{_{i}} ( \xi ) \Psi_{_{j}} ( \xi ) \right] \, \frac{dx}{d \xi} \, d\xi \quad i,j=1,2 \\
b_{_{i}}^{^{e}} &=\, \int_{ \Omega^{^{e}} } \, f(x) \, \varphi_{_{i}} (x) \, dx \\
&=\, \int_{-1}^1 \, f ( x( \xi ) ) \, \varphi_{_{i}} ( x( \xi ) ) \frac{dx}{d \xi} \, d\xi \\
&=\, \int_{-1}^1 \, f ( \xi ) \, \varphi_{_{i}} ( \xi ) \frac{dx}{d \xi} \, d\xi
\end{align*}
%%%Figura
\subsection*{Cuadratura de Gauss en Una Dimensión}
El dominio de la cuadratura de \textit{Gauss} está dado por $[-1,1]$ y lo definimos como
\begin{align*}
\int_{-1}^1 \, f(x) \, dx &\approx\, \sum_{i=1}^n \, w_{_{i}} f( x_{_{i}} ) \\
\intertext{ polinomios de \textit{Legendre} }
P_{_{n}} (x) &=\, \frac{1}{ 2^{^{n}} n! } \frac{ d^{^{n}} }{ dx^{^{n}} } \left( x^{^{2}} - 1 \right)^{^{n}} \quad n=0, \ldots \quad \text{ formula de \textit{Rodrigues} } \\
w_{_{i}} &=\, \frac{1}{ P_{_{n+1}}^{^{i}} ( x_{_{i}} ) } \int_{-1}^1 \, \frac{ P_{_{n+1}} (x) }{ x-x_{_{i}} } \, dx \\
\int_{-1}^1 \, f(x) \, dx &\approx\, w_{_{1}} f( x_{_{1}} ) +w_{_{2}} f( x_{_{2}} ) \quad n=2 \\
P_{_{n+1}} &=\, P_{_{2}} = \frac{1}{2} \left( 3 x^{^{2}} - 1 \right)
\end{align*}
\begin{align*}
x_{_{1}} &=\, \frac{1}{ \sqrt{3} } & P'(x) &=\, \frac{1}{2} (6x) \\
x_{_{2}} &=\, -\frac{1}{ \sqrt{3} } & &=\, 3x \\
w_{_{1}} &=\, \frac{1}{ 3 \left( 1 / \sqrt{3} \right) } \, \int_{-1}^1 \, \frac{ \frac{1}{2} \left( 3 x^{^{2}} - 1 \right) }{ x - 1 / \sqrt{3} } \, dx & w_{_{2}} &=\, \frac{1}{ 3 ( -1 / \sqrt{3} ) } \, \int_{-1}^1 \, \frac{ \frac{1}{2} ( 3 x^{^{2}} - 1 ) }{ x + 1 / \sqrt{3} } \, dx \\
&=\, 1 & &=\, 1 \\
\int_{-1}^1 \, f(x) \, dx &=\, f \left( \frac{1}{ \sqrt{3} } \right) +f \left( -\frac{1}{ \sqrt{3} } \right) \\
\intertext{ el error es }
E &=\, \left| \int_{-1}^1 \, f(x) \, dx -\sum_{i=1}^n \, w_{_{i}} \, f( x_{_{i}} ) \right| \\
&=\, \frac{ 2^{^{ 2n+3 }} [ (n+1)! ]^{^{n}} f^{^{ (2n+2) }} (\xi) }{ (2n+3) [ (2n+2)! ]^{^{3}} } \quad -1 < \xi < 1
\end{align*}
\subsection*{ Cuadratura de Gauss en Dos Dimensiones en un Rectángulo }
\begin{align*}
\int_{-1}^1 \, f(x,y) \, dx \, dy &=\, \int_{-1}^1 \left[ \int_{-1}^1 \, f(x,y) \, dx \right] \, dy \\
&\approx\, \int_{-1}^1 \, \sum_{i=1}^n \, w_{_{i}} \, f( x_{_{i}} , y ) \, dx \\
&\approx\, \sum_{i=1}^n \, \sum_{j=1}^n \, w_{_{i}} w_{_{j}} \, f( x_{_{i}} , y_{_{j}} )
\end{align*}
%%%Figura
si tenemos $[a,b] \times [c,d]$, haciendo
\begin{align*}
x &=\, \frac{ (b-a) v +(a+b) }{2} \qquad dx =\, \frac{ (b-a) }{2} \, dv \\
y &=\, \frac{ (d-c) u +(c+d) }{2} \qquad dy =\, \frac{ (d-c) }{2} \, du \\
\int_a^b \int_c^d \, f(x,y) \, dx \, dy &=\, \int_a^b \left[ \int_{-1}^1 \, f \left( x , \frac{ (d-c) u +(c+d) }{2} \right) \, \frac{ (d-c) }{2} \, du \right] \, dx \\
&=\, \int_{-1}^1 \, f \left( \frac{ (b-a) v +(a+b) }{2} , \frac{ (d-c) u +(c+d) }{2} \right) \, \frac{ (b-a) (d-c) }{4} du \, dv
\end{align*}
\subsubsection*{Ejemplo}
Consideremos el problema
$$\begin{cases}
-\nabla \cdot (k \nabla u) +bu = f(x,y) & \text{en} \, \Omega_{_{i}} \quad i=1,2 \\
u(s) = \hat{u} (s) & s \in \partial \Omega_{_{1}} \\
\sigma_{_{n}} (s) = p(s) \, \left[ u(s) -\hat{u} (s) \right] & s \in \partial \Omega_{_{2}} \\
\ldbrack k \nabla u \cdot n \rdbrack = 0 & s \, \text{en} \, \Gamma
\end{cases}$$
%%%Figura
\begin{align*}
\Omega &=\, \Omega_{_{1}} \cap \Omega_{_{2}} & \partial \Omega &=\, \partial \Omega_{_{1}} \cup \partial \Omega_{_{2}} \\
\sigma_{_{n}} (s) &=\, -k(s) \, \frac{ \partial u(s) }{ \partial n } \\
\intertext{ las ecuaciones paramétricas }
\partial \Omega &:\,
\begin{cases}
x = x(s) \\
y = y(s)
\end{cases} \\
\intertext{ si $b=0$ y las condiciones de frontera en todo $\partial \Omega$ son naturales, entonces }
-k(s) \, \frac{ \partial u(s) }{ \partial n } &=\, \hat{ \sigma } (s)
\end{align*}
\begin{enumerate}
\item No existe una única solución al problema
\item Para que pueda existir una única solución se debe satisfacer una condición de compatibilidad
\end{enumerate}
$\displaystyle \int_{ \Omega } \, f(x,y) \, dx \, dy = \int_{ \partial \Omega } \, \hat{ \sigma } (s) \, ds$ \quad (principio de conservación) \\
la formulación débil es como sigue
$$\int_{ \Omega_{_{1}} } \, [ \nabla \cdot ( k_{_{1}} \nabla u ) +bu ]v \, dA +\int_{ \Omega_{_{2}} } \, [ -\nabla \cdot ( k_{_{2}} \nabla u ) +bu ]v \, dA = \int_{ \Omega } \, fv \, dA \qquad \forall \, v \in H' ( \Omega )$$
sabemos que $v \nabla \cdot (k \nabla u) = \nabla \cdot (vk \nabla u) -k \nabla u \cdot \nabla v$, entonces sustituyendo
$$\int_{ \Omega_{_{1}} } \, [ k \nabla u \cdot \nabla v -\nabla \cdot (vk \nabla u) +buv ] \, dA +\int_{ \Omega_{_{2}} } \, [ k \nabla u \cdot \nabla v -\nabla \cdot (vk \nabla u) +buv ] \, dA = \int_{ \Omega } \, fv \, dA$$
por el teorema de la divergencia
\begin{align*}
\int_{ \Omega_{_{i}} } \, \nabla \cdot (vk \nabla u) \, dA &=\, \int_{ \partial \Omega_{_{i}} } \, vk \nabla u \cdot n \, dS \\
&=\, \int_{ \partial \Omega_{_{i}} } \, k \, \frac{ \partial u }{ \partial n } v \, dS \quad i=1,2
\end{align*}
entonces sustituyendo
\begin{align*}
\int_{ \Omega } \, [ k \nabla u \cdot \nabla v +buv ] \, dA &=\, \int_{ \Omega } \, fv \, dA +\int_{ \partial \Omega } \, k \, \frac{ \partial u }{ \partial n } v \, dS \\
&=\, \int_{ \Omega } \, fv \, dA +\int_{ \partial \Omega } \, v \, p(s) \left[ u(s) -\hat{u} (s) \right] \, dS \qquad \forall \, v \in H'( \Omega ) \quad u \in H'( \Omega ) \\
\intertext{ como $u = \hat{u}$ en $\partial \Omega_{_{1}}$ entonces }
\int_{ \partial \Omega } \, p \left( u-\hat{u} \right) v \, dS &=\, \int_{ \partial \Omega } \, puv \, dS -\int_{ \partial \Omega } \, p \hat{u} v \, dS \\
&=\, \int_{ \partial \Omega_{_{2}} } \, puv \, dS -\int_{ \partial \Omega_{_{2}} } \, p \hat{u} v \, dS \quad \text{para} \, v \in H'_{_{0}} \, \text{en} \, \partial \Omega_{_{1}}
\end{align*}
entonces
\begin{align*}
\int_{ \Omega } \, [ k \nabla u \cdot \nabla v +buv ] \, dA &=\, \int_{ \Omega } \, fv \, dA -\int_{ \partial \Omega_{_{2}} } \, puv \, dS -\int_{ \partial \Omega_{_{2}} } \, p \hat{u} v \, dS \\
\int_{ \Omega } \, ( k \nabla u \cdot \nabla v +buv ) \, dA +\int_{ \partial \Omega_{_{2}} } \, puv \, dS &=\, \int_{ \Omega } \, fv \, dA +\int_{ \partial \Omega_{_{2}} } \, p \hat{u} v \, dS
\end{align*}
la cual es nuestra formulación débil. \\
Asi, el problema consiste en determinar $u \in H' ( \Omega )$ tal que $u = \hat{u}$ en $\partial \Omega_{_{1}}$ y $v \in H'_{_{0}} ( \Omega )$ en $\partial \Omega_{_{1}}$ \quad ($v \in H'( \Omega )$ en $\partial \Omega_{_{2}}$ \\
$u^{^{h}}$: aproximación de $u$ en un subespacio $S^{^{h}} \subset H' ( \Omega )$ \\
$v^{^{h}}$: aproximación de $v$ en un subespacio $S^{^{h}} \subset H' ( \Omega )$ \\
$\Omega^{^{h}}$: región discretizada
\begin{align*}
u^{^{h}} &=\, \sum_{i=1}^N \, u_{_{i}} \varphi_{_{i}} (x,y) & v^{^{h}} &=\, \sum_{j=1}^N \, v_{_{i}} \varphi_{_{j}} (x,y) \\
\hat{u}^{^{h}} (x,y) &=\, \sum_{j=1}^{ n-\text{nodos} } \, \hat{u}_{_{j}} \varphi_{_{j}} ( x(s), y(s) )
\end{align*}
entonces
$$\int_{ \Omega } \, \left[ k \left( \frac{ \partial \varphi_{_{i}} }{ \partial x } \frac{ \partial \varphi_{_{j}} }{ \partial x } +\frac{ \partial \varphi_{_{i}} }{ \partial y } \frac{ \partial \varphi_{_{j}} }{ \partial y } \right) +b \varphi_{_{i}} \varphi_{_{j}} \right] \, dA +\int_{ \partial \Omega_{_{2}}^{^{h}} } \, p \varphi_{_{i}} \varphi_{_{j}} = \int_{ S^{^{h}} } \, f \varphi_{_{i}} \, dA +\int_{ \partial \Omega_{_{2}}^{^{h}} } \, \gamma \varphi_{_{i}} \, dS$$
donde $\gamma = p \hat{u}$, asi tenemos $\displaystyle \sum_{j=1}^N \, M_{_{ij}} u_{_{j}} = F_{_{i}} \quad i=1,2, \ldots, N$
\begin{align*}
M_{_{ij}} &=\, \int_{ \Omega^{^{h}} } \, \left[ k \left( \frac{ \partial \varphi_{_{i}} }{ \partial x } \frac{ \partial \varphi_{_{j}} }{ \partial x } +\frac{ \partial \varphi_{_{i}} }{ \partial y } \frac{ \partial \varphi_{_{j}} }{ \partial y } \right) +b \varphi_{_{i}} \varphi_{_{j}} \right] \, dx \, dy +\int_{ \partial \Omega_{_{2}}^{^{h}} } \, p \varphi_{_{i}} \varphi_{_{j}} \, dS \\
F_{_{i}} &=\, \int_{ \Omega^{^{h}} } \, f \, \varphi_{_{i}} \, dx \, dy +\int_{ \partial \Omega_{_{2}}^{^{h}} } \, \gamma \varphi_{_{j}} \, dS
\end{align*}
en cada elemento
$$\int_{ \Omega } \, \left( k \nabla u^{^{he}} \cdot \nabla v^{^{he}} +b u^{^{he}} v^{^{he}} \right) \, dA =\, \int_{ \Omega^{^{e}} } \, f v^{^{he}} \, dA -\int_{ \partial \Omega^{^{e}} } \, \sigma_{_{n}} v^{^{he}} \, dS$$
si $v^{^{h}} = 0$ en $\partial \Omega_{_{1}}^{^{h}}$ entonces no habra contribución a la integral de elementos con lados en $\partial \Omega_{_{1}}^{^{h}}$
\begin{align*}
u^{^{he}} &=\, \sum_{j=1}^{ N_{_{e}} } \, u_{_{j}}^{^{e}} \Psi_{_{j}}^{^{e}} (x,y) & v^{^{he}} &=\, \sum_{j=1}^{ N_{_{e}} } \, v_{_{j}}^{^{e}} \Psi_{_{j}}^{^{e}} (x,y)
\end{align*}
$N_{_{e}}$: número de nodos en $\Omega^{^{e}}$ \\
$\Psi_{_{i}}^{^{e}}$: funciones de onda locales \\
por ejemplo: interpolante lineal en dos dimensiones en un triángulo $N_{_{e}}=3$, entonces
$$\sum_{j=1}^{ N_{_{e}} } \, m_{_{ij}}^{^{e}} u_{_{j}}^{^{e}} = f_{_{i}}^{^{e}} -\sigma_{_{i}}^{^{e}} \qquad i=1, 2, \ldots, N_{_{e}}$$
con interpolantes lineales y elementos triangulares $m$ es una matriz de $3 \times 3$
\begin{align*}
m_{_{ij}}^{^{e}} &=\, \int_{ S^{^{e}} } \, \left[ k \left( \frac{ \partial \Psi_{_{i}} }{ \partial x } \frac{ \partial \Psi_{_{j}} }{ \partial x } +\frac{ \partial \Psi_{_{i}} }{ \partial y } \frac{ \partial \Psi_{_{j}} }{ \partial y } \right) +b \Psi_{_{i}} \Psi_{_{j}} \right] \, dx \, dy \\
f_{_{i}}^{^{e}} &=\, \int_{ \Omega^{^{e}} } \, f \, \Psi_{_{i}}^{^{e}} \, dx \, dy \\
\sigma_{_{i}}^{^{e}} &=\, \int_{ \partial \Omega^{^{e}} } \, \sigma_{_{n}} \, \Psi_{_{i}}^{^{e}} \, dS
\end{align*}
$m^{^{e}}$ será una matriz de $N \times N. \, M^{^{e}}$ con ceros excepto en las filas y columnas correspondientes a los nodos en el elemento $\Omega^{^{e}}, f^{^{e}}$ y $\sigma^{^{e}}$ se expanden a un vector $N \times 1 \quad F^{^{e}}, \sigma^{^{e}}$ con entradas no cero solamente en las filas correspondientes a los nodos de $\Omega^{^{e}}$, entonces
\begin{align*}
\sum_{e=1}^{ N_{_{ \text{el} }} } \, \int_{ \Omega^{^{e}} } \, \left[ k \left( \frac{ \partial \Psi_{_{i}} }{ \partial x } \frac{ \partial \Psi_{_{j}} }{ \partial x } +\frac{ \partial \Psi_{_{i}} }{ \partial y } \frac{ \partial \Psi_{_{j}} }{ \partial y } \right) +b \Psi_{_{i}} \Psi_{_{j}} \right] \, dA &=\, \sum_{e=1}^{ N_{_{ \text{el} }} } \, M_{_{ij}}^{^{e}} \\
\sum_{e=1}^{ N_{_{ \text{el} }} } \, \int_{ \Omega^{^{e}} } \, p \varphi_{_{i}} \, dx \, dy &=\, \sum_{i=1}^{ N_{_{ \text{el} }} } \, F_{_{i}}^{^{e}} \qquad i,j = 1, \ldots, N_{_{ \text{el} }} \\
\sum_{e=1}^{ N_{_{ \text{el} }} } \, \left( M_{_{ij}}^{^{e}} u_{_{j}} - F_{_{i}}^{^{e}} +\Sigma_{_{i}}^{^{e}} \right) &=\, 0 \qquad i,j = 1, \ldots, N_{_{ \text{el} }}
\end{align*}
$N_{_{ \text{el} }}$: número de elementos \\
las contirbuciones a $M_{_{ij}}, F_{_{i}}$ provenientes de las condiciones de frontera entran por medio de los términos $\Sigma_{_{i}}^{^{e}}$ \\
la suma de las integrales de contorno
\begin{align*}
\sum_{e=1}^{ N_{_{ \text{el} }} } \, \Sigma_{_{i}}^{^{e}} &=\, S_{_{i}}^{^{ (0) }} +S_{_{i}}^{^{ (1) }} +S_{_{i}}^{^{ (2) }} \qquad i = 1, 2, \ldots, N_{_{ \text{el} }} \\
\intertext{ donde }
S_{_{i}}^{^{ (0) }} &=\, \sum_{e=1}^{ N_{_{ \text{el} }} } \, \int_{ \partial \Omega^{^{e}} - \partial \Omega^{^{h}} } \, \sigma_{_{n}} \varphi_{_{i}} \, dS \qquad (\text{en nodos interiores}) \\
S_{_{i}}^{^{ (1) }} &=\, \int_{ \partial \Omega_{_{1}}^{^{h}} } \, \sigma_{_{n}} \varphi_{_{i}} \, dS \\
S_{_{i}}^{^{ (2) }} &=\, \int_{ \partial \Omega_{_{2}}^{^{h}} } \, \sigma_{_{n}} \varphi_{_{i}} \, dS
\end{align*}
\subsubsection*{Ejemplo}
\begin{enumerate}
\item %%%Figura
Todos son elementos interiores
\begin{align*}
S_{_{1}}^{^{ (0) }} &=\, \sum_{e=1}^4 \, \int_{ \partial \Omega^{^{e}} } \, \sigma_{_{n}} \varphi_{_{1}} \, dS \\
&=\, \int_{ \Gamma_{_{1}} } \, \ldbrack \sigma_{_{n}} \rdbrack \varphi_{_{1}} \, dS +\int_{ \Gamma_{_{2}} } \, \ldbrack \sigma_{_{n}} \rdbrack \varphi_{_{1}} \, dS +\int_{ \Gamma_{_{3}} } \, \ldbrack \sigma_{_{n}} \rdbrack \varphi_{_{1}} \, dS +\int_{ \Gamma_{_{4}} } \, \ldbrack \sigma_{_{n}} \rdbrack \varphi_{_{1}} \, dS \qquad \ldbrack \sigma_{_{n}} \rdbrack = 0 \\
&=\, 0
\end{align*}
en este ejemplo tenemos condiciones esenciales o de \textit{Dirichlet}, entonces $\sigma_{_{n}}$ no se conoce en $\partial \Omega_{_{1}}^{^{h}}$ entonces no podemos calcular $S_{_{i}}^{^{ (1) }}$ hasta el final \\
$S_{_{i}}^{^{ (2) }} \,:\, \sigma_{_{n}} (s) = p(s) u^{^{h}} (s) - \gamma (s)$
\begin{align*}
S_{_{i}}^{^{ (2) }} &\approx\, \int_{ \partial \Omega_{_{2}}^{^{h}} } \, \left( p \sum \, u_{_{i}} \varphi_{_{j}} - \gamma \right) \, \varphi_{_{i}} \, dS & \gamma_{_{i}} &=\, \int_{ \partial \Omega_{_{2}}^{^{h}} } \, \gamma \varphi_{_{i}} \, dS & P_{_{ij}} &=\, \int_{ \partial \Omega_{_{2}}^{^{h}} } \, p \varphi_{_{i}} \varphi_{_{j}} \, dS \\
&=\, \sum_{j=1}^{ N_{_{ \text{el} }} } \, p_{_{ij}} u_{_{j}} - \gamma_{_{i}} & &=\, \sum_{e=1}^{ N_{_{ \text{el} }} } \int_{ \partial \Omega_{_{2}}^{^{h}} } \, \gamma \varphi_{_{i}} \, dS & &=\, \sum_{e=1}^{ N_{_{ \text{el} }} } \int_{ \partial \Omega_{_{2}}^{^{h}} } \, p \varphi_{_{i}} \varphi_{_{j}} \, dS \\
& & &=\, \sum_{i=1}^{ N_{_{ \text{el} }} } \, \gamma_{_{i}} & &=\, \sum_{e=1}^{ N_{_{ \text{el} }} } \, P_{_{ij}}^{^{e}} \\
\intertext{ entonces $\displaystyle \sum_{j=1}^{ N_{_{ \text{el} }} } \, M_{_{ij}} u_{_{j}} = F_{_{i}} S_{_{i}}^{^{ (2) }} \qquad i=1, 2, \ldots, N_{_{ \text{el} }}$ }
M_{_{ij}} &=\, \sum_{e=1}^{ N_{_{ \text{el} }} } \, \left( M_{_{ij}}^{^{e}} + P_{_{ij}}^{^{e}} \right) & F_{_{i}} &=\, \sum_{i=1}^{ N_{_{ \text{el} }} } \, \left( F_{_{i}}^{^{e}} + \gamma_{_{ij}}^{^{e}} \right)
\end{align*}
\item $\begin{cases}
-\nabla^{^{2}} u (x,y) = f(x,y) \, \text{en} \, \Omega \\
u(x,y)=0 \, \text{en} \, \Gamma_{_{41}} \\
\dfrac{ \partial u }{ \partial n } = 0 \, \text{en} \, \Gamma_{_{12}} \,,\, \Gamma_{_{25}} \,,\, \Gamma_{_{67}} \,,\, \Gamma_{_{74}} \\
\dfrac{ \partial u }{ \partial n } +\beta u = \gamma \, \text{en} \, \Gamma_{_{56}}
\end{cases}$ \\ %%%Figura
determinar el sistema lineal de ecuaciones: seis elementos triangulares, siete nodos\\
el sistema lineal es de la forma
\begin{align*}
\sum_{e=1}^6 \, \left( M_{_{ij}}^{^{e}} u_{_{j}}^{^{e}} -F_{_{i}}^{^{e}} +\Sigma_{_{i}}^{^{e}} \right) &=\, 0 \quad i=1, \ldots, 6 & \sum_{e=1}^{ N_{ \text{el} } } \Sigma_{_{i}}^{^{e}} &=\, S_{_{i}}^{^{ (0) }} +S_{_{i}}^{^{ (1) }} +S_{_{i}}^{^{ (2) }}
\end{align*}
$S_{_{i}}^{^{ (0) }} = 0 \,,\, S_{_{i}}^{^{ (1) }}$ no lo podemos conocer
\begin{align*}
\sum_{e=1}^6 \, M_{_{ij}}^{^{e}} u_{_{i}}^{^{e}} &=\, \sum_{e=1}^6 \, F_{_{i}}^{^{e}} -S_{_{i}}^{^{ (2) }} & S_{_{i}}^{^{ (2) }} &=\, \sum_{j=1}^N \, P_{_{ij}} u_{_{j}} -\gamma_{_{i}} \\
P_{_{ij}} &=\, \sum_{e=1}^6 \, P_{_{ij}}^{^{e}} & \gamma_{_{i}} &=\, \sum_{e=1}^6 \, \gamma_{_{i}}^{^{e}} \\
M_{_{ij}} &=\, \sum_{e=1}^6 \, \left( M_{_{ij}}^{^{e}} +P_{_{ij}}^{^{e}} \right) & F_{_{i}} &=\, \sum_{e=1}^6 \, \left( F_{_{i}}^{^{e}} +\gamma_{_{i}}^{^{e}} \right)
\end{align*}
funciones base lineales en dos variables \\ %%%Figura
$e=1$
\begin{align*}
M^{^{1}} &=\,
\begin{bmatrix}
m_{_{11}}^{^{1}} & m_{_{12}}^{^{1}} & m_{_{13}}^{^{1}} & 0 & 0 & 0 & 0 \\
m_{_{21}}^{^{1}} & m_{_{22}}^{^{1}} & m_{_{23}}^{^{1}} & 0 & 0 & 0 & 0 \\
m_{_{31}}^{^{1}} & m_{_{32}}^{^{1}} & m_{_{33}}^{^{1}} & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0
\end{bmatrix} &
M^{^{2}} &=\,
\begin{bmatrix}
m_{_{11}}^{^{2}} & 0 & m_{_{12}}^{^{2}} & m_{_{13}}^{^{2}} & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
m_{_{21}}^{^{2}} & 0 & m_{_{22}}^{^{2}} & m_{_{23}}^{^{2}} & 0 & 0 & 0 \\
m_{_{31}}^{^{2}} & 0 & m_{_{32}}^{^{2}} & m_{_{33}}^{^{2}} & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0
\end{bmatrix} \\
M^{^{3}} &=\,
\begin{bmatrix}
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & m_{_{11}}^{^{3}} & m_{_{12}}^{^{3}} & 0 & m_{_{13}}^{^{3}} & 0 & 0 \\
0 & m_{_{21}}^{^{3}} & m_{_{22}}^{^{3}} & 0 & m_{_{23}}^{^{3}} & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & m_{_{31}}^{^{3}} & m_{_{32}}^{^{3}} & 0 & m_{_{33}}^{^{3}} & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0
\end{bmatrix} &
M^{^{4}} &=\,
\begin{bmatrix}
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & m_{_{11}}^{^{4}} & m_{_{12}}^{^{4}} & 0 & 0 & m_{_{13}}^{^{4}} \\
0 & 0 & m_{_{21}}^{^{4}} & m_{_{22}}^{^{4}} & 0 & 0 & m_{_{23}}^{^{4}} \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & m_{_{31}}^{^{4}} & m_{_{32}}^{^{4}} & 0 & 0 & m_{_{33}}^{^{4}} \\
\end{bmatrix} \\
M^{^{5}} &=\,
\begin{bmatrix}
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & m_{_{11}}^{^{5}} & 0 & 0 & m_{_{12}}^{^{5}} & m_{_{13}}^{^{5}} \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & m_{_{21}}^{^{5}} & 0 & 0 & m_{_{22}}^{^{5}} & m_{_{23}}^{^{5}} \\
0 & 0 & m_{_{31}}^{^{5}} & m_{_{32}}^{^{5}} & 0 & 0 & m_{_{33}}^{^{5}} \\
\end{bmatrix} &
M^{^{6}} &=\,
\begin{bmatrix}
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & m_{_{11}}^{^{6}} & 0 & m_{_{12}}^{^{6}} & m_{_{13}}^{^{6}} & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & m_{_{21}}^{^{6}} & 0 & m_{_{22}}^{^{6}} & m_{_{23}}^{^{6}} & 0 \\
0 & 0 & m_{_{31}}^{^{6}} & 0 & m_{_{32}}^{^{6}} & m_{_{33}}^{^{5}} & 0
\end{bmatrix}
\end{align*}
$$F^{^{1}} =
\begin{bmatrix}
f_{_{1}}^{^{1}} \\ f_{_{2}}^{^{1}} \\ f_{_{3}}^{^{1}} \\ 0 \\ 0 \\ 0 \\ 0
\end{bmatrix} \qquad
F^{^{2}} =
\begin{bmatrix}
f_{_{1}}^{^{2}} \\ 0 \\ f_{_{2}}^{^{2}} \\ 0 \\ f_{_{3}}^{^{2}} \\ 0 \\ 0
\end{bmatrix} \qquad
F^{^{3}} =
\begin{bmatrix}
0 \\ f_{_{1}}^{^{3}} \\ f_{_{2}}^{^{3}} \\ 0 \\ f_{_{3}}^{^{3}} \\ 0 \\ 0
\end{bmatrix} \qquad
F^{^{4}} =
\begin{bmatrix}
0 \\ 0 \\ f_{_{1}}^{^{4}} \\ f_{_{2}}^{^{4}} \\ 0 \\ 0 \\ f_{_{3}}^{^{4}}
\end{bmatrix} \qquad
F^{^{5}} =
\begin{bmatrix}
0 \\ 0 \\ f_{_{1}}^{^{5}} \\ 0 \\ 0 \\ f_{_{2}}^{^{5}} \\ f_{_{3}}^{^{5}}
\end{bmatrix} \qquad
F^{^{6}} =
\begin{bmatrix}
0 \\ 0 \\ f_{_{1}}^{^{6}} \\ 0 \\ f_{_{2}}^{^{6}} \\ f_{_{3}}^{^{6}} \\ 0
\end{bmatrix}$$
entonces $Mu = F - \Sigma$
$$\begin{bmatrix}
M_{_{11}} & M_{_{12}} & M_{_{13}} & M_{_{14}} & M_{_{15}} & M_{_{16}} & M_{_{17}} \\
M_{_{21}} & M_{_{22}} & M_{_{23}} & M_{_{24}} & M_{_{25}} & M_{_{26}} & M_{_{27}} \\
M_{_{31}} & M_{_{32}} & M_{_{33}} & M_{_{34}} & M_{_{35}} & M_{_{36}} & M_{_{37}} \\
M_{_{41}} & M_{_{42}} & M_{_{43}} & M_{_{44}} & M_{_{45}} & M_{_{46}} & M_{_{47}} \\
M_{_{51}} & M_{_{52}} & M_{_{53}} & M_{_{54}} & \widetilde{M}_{_{55}} & \widetilde{M}_{_{56}} & M_{_{57}} \\
M_{_{61}} & M_{_{62}} & M_{_{63}} & M_{_{64}} & \widetilde{M}_{_{65}} & \widetilde{M}_{_{66}} & M_{_{67}} \\
M_{_{71}} & M_{_{72}} & M_{_{73}} & M_{_{74}} & M_{_{75}} & M_{_{76}} & M_{_{77}}
\end{bmatrix} \,
\begin{bmatrix}
u_{_{1}} \\ u_{_{2}} \\ u_{_{3}} \\ u_{_{4}} \\ u_{_{5}} \\ u_{_{6}} \\ u_{_{7}}
\end{bmatrix} =
\begin{bmatrix}
F^{^{1}} \\ F^{^{2}} \\ F^{^{3}} \\ F^{^{4}} \\ \widetilde{F}^{^{5}} \\ \widetilde{F}^{^{6}} \\ F^{^{7}}
\end{bmatrix} -
\begin{bmatrix}
\Sigma_{_{1}} \\ 0 \\ 0 \\ \Sigma_{_{4}} \\ \Sigma_{_{5}} \\ \Sigma_{_{6}} \\ 0
\end{bmatrix}$$
$F^{^{1}} = f_{_{1}}^{^{1}} +f_{_{1}}^{^{2}} +\ldots$
$$\gamma =
\begin{bmatrix}
0 \\ 0 \\ 0 \\ 0 \\ \gamma^{^{5}} \\ \gamma^{^{6}} \\ 0
\end{bmatrix} \qquad P =
\begin{bmatrix}
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & P_{_{55}} & P_{_{56}} & 0 \\
0 & 0 & 0 & 0 & P_{_{65}} & P_{_{66}} & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 \\
\end{bmatrix}$$
$M_{_{ij}} = \widetilde{M}_{_{ij}} +P_{_{ij}} \qquad F_{_{i}} = \widetilde{F}_{_{i}} +\gamma_{_{i}}$
$$\begin{bmatrix}
M_{_{11}} & M_{_{12}} & M_{_{13}} & M_{_{14}} & M_{_{15}} & M_{_{16}} & M_{_{17}} \\
M_{_{21}} & M_{_{22}} & M_{_{23}} & M_{_{24}} & M_{_{25}} & M_{_{26}} & M_{_{27}} \\
M_{_{31}} & M_{_{32}} & M_{_{33}} & M_{_{34}} & M_{_{35}} & M_{_{36}} & M_{_{37}} \\
M_{_{41}} & M_{_{42}} & M_{_{43}} & M_{_{44}} & M_{_{45}} & M_{_{46}} & M_{_{47}} \\
M_{_{51}} & M_{_{52}} & M_{_{53}} & M_{_{54}} & M_{_{55}} & M_{_{56}} & M_{_{57}} \\
M_{_{61}} & M_{_{62}} & M_{_{63}} & M_{_{64}} & M_{_{65}} & M_{_{66}} & M_{_{67}} \\
M_{_{71}} & M_{_{72}} & M_{_{73}} & M_{_{74}} & M_{_{75}} & M_{_{76}} & M_{_{77}}
\end{bmatrix} \,
\begin{bmatrix}
u_{_{1}} \\ u_{_{2}} \\ u_{_{3}} \\ u_{_{4}} \\ u_{_{5}} \\ u_{_{6}} \\ u_{_{7}}
\end{bmatrix} =
\begin{bmatrix}
F_{_{1}} - \Sigma_{_{1}} \\ F_{_{2}} \\ F_{_{3}} \\ F_{_{4}} - \Sigma_{_{4}} \\ F_{_{5}} \\ F_{_{6}} \\ F_{_{7}}
\end{bmatrix}$$
entonces
\begin{align*}
M_{_{55}} &=\, \widetilde{M}_{_{55}} + P_{_{55}} & F_{_{5}} &=\, \widetilde{F}_{_{5}} + \gamma_{_{5}} \\
M_{_{56}} &=\, \widetilde{M}_{_{56}} + P_{_{56}} & F_{_{6}} &=\, \widetilde{F}_{_{6}} + \gamma_{_{6}} \\
M_{_{65}} &=\, \widetilde{M}_{_{65}} + P_{_{65}} \\
M_{_{66}} &=\, \widetilde{M}_{_{66}} + P_{_{66}}
\end{align*}
sabemos que $u_{_{1}} = u_{_{4}} = 0$ (por condición de frontera), entonces resulta un sistema de cinco ecuaciones
$$\begin{bmatrix}
M_{_{22}} & M_{_{23}} & M_{_{25}} & M_{_{26}} & M_{_{27}} \\
M_{_{32}} & M_{_{33}} & M_{_{35}} & M_{_{36}} & M_{_{37}} \\
M_{_{52}} & M_{_{53}} & M_{_{55}} & M_{_{56}} & M_{_{57}} \\
M_{_{62}} & M_{_{63}} & M_{_{65}} & M_{_{66}} & M_{_{67}} \\
M_{_{72}} & M_{_{73}} & M_{_{75}} & M_{_{76}} & M_{_{77}}
\end{bmatrix} \,
\begin{bmatrix}
u_{_{2}} \\ u_{_{3}} \\ u_{_{5}} \\ u_{_{6}} \\ u_{_{7}}
\end{bmatrix} =
\begin{bmatrix}
F_{_{2}} \\ F_{_{3}} \\ F_{_{5}} \\ F_{_{6}} \\ F_{_{7}}
\end{bmatrix}$$
el flujo en uno y cuatro se puede calcular después de resolver el sistema $( u_{_{2}}, u_{_{3}}, u_{_{5}}, u_{_{6}}, u_{_{7}} )$
\begin{align*}
M_{_{11}} u_{_{1}} + M_{_{12}} u_{_{2}} + M_{_{13}} u_{_{3}} + M_{_{14}} u_{_{4}} + M_{_{15}} u_{_{5}} + M_{_{16}} u_{_{6}} + M_{_{17}} u_{_{7}} &=\, F_{_{1}} -\Sigma_{_{1}} \\
M_{_{41}} u_{_{1}} + M_{_{42}} u_{_{2}} + M_{_{43}} u_{_{3}} + M_{_{44}} u_{_{4}} + M_{_{45}} u_{_{5}} + M_{_{46}} u_{_{6}} + M_{_{47}} u_{_{7}} &=\, F_{_{4}} -\Sigma_{_{4}}
\end{align*}
se despejan $\Sigma_{_{1}}$ y $\Sigma_{_{4}}$
\end{enumerate}
\begin{landscape}
$$M=
\begin{bmatrix}
m_{_{11}}^{^{1}} + m_{_{11}}^{^{2}} & m_{_{12}}^{^{1}} & m_{_{13}}^{^{1}} + m_{_{12}}^{^{2}} & m_{_{13}}^{^{2}} & 0 & 0 & 0 \\
m_{_{21}}^{^{1}} & m_{_{22}}^{^{1}} + m_{_{11}}^{^{3}} & m_{_{23}}^{^{1}} + m_{_{12}}^{^{3}} & 0 & m_{_{13}}^{^{3}} & 0 & 0 \\
m_{_{31}}^{^{1}} + m_{_{21}}^{^{1}} & m_{_{32}}^{^{1}} + m_{_{21}}^{^{3}} & m_{_{33}}^{^{1}} + m_{_{32}}^{^{2}} + m_{_{22}}^{^{3}} + m_{_{11}}^{^{4}} + m_{_{11}}^{^{5}} + m_{_{11}}^{^{6}} & m_{_{23}}^{^{2}} + m_{_{14}}^{^{2}} & m_{_{23}}^{^{3}} + m_{_{12}}^{^{6}} & m_{_{12}}^{^{5}} + m_{_{13}}^{^{6}} & m_{_{13}}^{^{4}} + m_{_{13}}^{^{5}} \\
m_{_{31}}^{^{2}} & 0 & m_{_{32}}^{^{2}} + m_{_{21}}^{^{4}} & m_{_{33}}^{^{2}} + m_{_{22}}^{^{4}} & 0 & 0 & m_{_{23}}^{^{4}} \\
0 & m_{_{31}}^{^{3}} & m_{_{32}}^{^{3}} + m_{_{21}}^{^{6}} & 0 & m_{_{33}}^{^{3}} + m_{_{22}}^{^{6}} & m_{_{23}}^{^{6}} & 0 \\
0 & 0 & m_{_{21}}^{^{5}} + m_{_{31}}^{^{6}} & 0 & m_{_{32}}^{^{6}} & m_{_{22}}^{^{5}} + m_{_{33}}^{^{6}} & m_{_{23}}^{^{5}} \\
0 & 0 & m_{_{31}}^{^{4}} + m_{_{31}}^{^{5}} & m_{_{32}}^{^{4}} & 0 & m_{_{32}}^{^{5}} & m_{_{33}}^{^{4}} + m_{_{13}}^{^{5}}
\end{bmatrix}$$
\end{landscape}
\subsection*{Cuadratura Gaussiana en Dos Dimensiones}
\subsection*{Elemento Rectangular}
%%%Figura
\begin{align*}
\int_{-1}^1 \, \left[ \int_{-1}^1 \, f ( \xi, \eta ) \, d\xi \right] \, d\eta &=\, \int_{-1}^1 \, \sum \, w_{_{i}} \, f ( \xi , \eta ) \, d\eta \\
&=\, \sum_{j=1}^n \, \sum_{i=1}^n \, w_{_{i}} w_{_{j}} \, f ( \xi_{_{i}} , \eta_{_{i}} ) \\
\intertext{ donde $\xi_{_{i}}$ y $\eta_{_{i}}$ son las raices del polinomio de \textit{Legendre} de grado $n$ }
P_{_{n}} (x) &=\, \frac{1}{ 2^{^{n}} n! } \frac{ \partial^{^{ (n) }} }{ \partial x } \left[ \left( x^{^{2}} - 1 \right)^{^{n}} \right] \\
w_{_{i}} &=\, \int_{-1}^1 \, \prod_{ \overset{j=1}{i\neq j} }^n \, \frac{ x-x_{_{j}} }{ x_{_{i}}-x_{_{j}} }
\end{align*}
\subsection*{Elemento Triangular}
%%%Figura
$\displaystyle \int_0^1 \int_0^{mx+a} \, f ( \xi , \eta ) \, d\xi \, d\eta$
\subsection*{Coordenadas de Área}
%%%Figura
$L_{_{1}} = \dfrac{ A_{_{1}} }{A} \qquad L_{_{2}} = \dfrac{ A_{_{2}} }{A} \qquad L_{_{3}} = \dfrac{ A_{_{3}} }{A}$ \\
$A_{_{1}} +A_{_{2}} +A_{_{3}} = A \Longrightarrow L_{_{1}} +L_{_{2}} +L_{_{3}} = 1$
\begin{align*}
A &=\, \frac{1}{2} \,
\begin{Vmatrix}
x_{_{1}} & x_{_{2}} & x_{_{3}} \\
y_{_{1}} & y_{_{2}} & y_{_{3}} \\
1 & 1 & 1
\end{Vmatrix} \\
L_{_{1}} &=\, \frac{ A_{_{1}} }{A} =
\frac{
\begin{Vmatrix}
x & x_{_{2}} & x_{_{3}} \\
y & y_{_{2}} & y_{_{3}} \\
1 & 1 & 1
\end{Vmatrix}
}
{
\begin{Vmatrix}
x_{_{1}} & x_{_{2}} & x_{_{3}} \\
y_{_{1}} & y_{_{2}} & y_{_{3}} \\
1 & 1 & 1
\end{Vmatrix}
} &
L_{_{2}} &=\, \frac{ A_{_{2}} }{A} =
\frac{
\begin{Vmatrix}
x_{_{1}} & x & x_{_{3}} \\
y_{_{1}} & y & y_{_{3}} \\
1 & 1 & 1
\end{Vmatrix}
}
{
\begin{Vmatrix}
x_{_{1}} & x_{_{2}} & x_{_{3}} \\
y_{_{1}} & y_{_{2}} & y_{_{3}} \\
1 & 1 & 1
\end{Vmatrix}
} &
L_{_{3}} &=\, \frac{ A_{_{3}} }{A} =
\frac{
\begin{Vmatrix}
x_{_{1}} & x_{_{2}} & x\\
y_{_{1}} & y_{_{2}} & y \\
1 & 1 & 1
\end{Vmatrix}
}
{
\begin{Vmatrix}
x_{_{1}} & x_{_{2}} & x_{_{3}} \\
y_{_{1}} & y_{_{2}} & y_{_{3}} \\
1 & 1 & 1
\end{Vmatrix}
}
\end{align*}
$$\begin{bmatrix}
x_{_{1}} & x_{_{2}} & x_{_{3}} \\
y_{_{1}} & y_{_{2}} & y_{_{3}} \\
1 & 1 & 1
\end{bmatrix} \,
\begin{bmatrix}
L_{_{1}} \\ L_{_{2}} \\ L_{_{3}}
\end{bmatrix} =
\begin{bmatrix}
x \\ y \\ 1
\end{bmatrix}$$
\begin{align*}
x &=\, L_{_{1}} x_{_{1}} +L_{_{2}} x_{_{2}} +L_{_{3}} x_{_{3}} \\
y &=\, L_{_{1}} y_{_{1}} +L_{_{2}} y_{_{2}} +L_{_{3}} y_{_{3}} \\
1 &=\, L_{_{1}} +L_{_{2}} +L_{_{3}}
\end{align*}
$\displaystyle \int_0^1 \int_0^{ 1-L_{_{1}} } \, f \left( L_{_{1}} , L_{_{2}} , L_{_{3}} \right) \, dL_{_{2}} \, dL_{_{3}}$\\
\begin{tabular}{l|l|c|c|c|c}
\textcolor{blue}{Orden} & \textcolor{blue}{Figura} & \textcolor{blue}{Error} & \textcolor{blue}{Puntos} & \textcolor{blue}{Coordenadas triangulares} & \textcolor{blue}{Coeficientes} \\\hline
Primer orden & & $\mathcal{O} ( h^{^{2}} )$ & $a$ & $1/3 \quad 1/3 \quad 1/3$ & 1 \\\hline
Segundo orden & & $\mathcal{O} ( h^{^{3}} )$ & $a, b, c$ &
$\begin{smallmatrix}
1/2 & & 1/2 & & 0 \\
0 & & 1/2 & & 1/2 \\
1/2 & & 0 & & 1/2
\end{smallmatrix}$ &
$\begin{smallmatrix}
1/3 \\ 1/3 \\ 1/3
\end{smallmatrix}$ \\
\end{tabular}
\subsubsection*{Ejemplo}
%%%Figura
\begin{align*}
\int_R \, \cos (x+y) \, dx \, dy &=\, \int_0^2 \int_0^{-1/2 x+1 } \, \cos (x+y) \, dx \, dy \\
&=\, \int_0^1 \int_0^{ 1-L_{_{1}} } \, f \left( L_{_{1}} , L_{_{2}} , L_{_{3}} \right) \\
&=\, \sum_{i=1}^n \, w_{_{i}} \, f \left( L_{_{1i}} , L_{_{2i}} , L_{_{3i}} \right) \\
&=\, \sum_{i=1}^n \, w_{_{i}} \, f \left( L_{_{1i}} x_{_{1}} +L_{_{2i}} x_{_{2}} +L_{_{3i}} x_{_{3}} , L_{_{1i}} y_{_{1}} +L_{_{2i}} y_{_{2}} +L_{_{3i}} y_{_{3}} \right)
\end{align*}
\begin{align*}
&=\, 1 \, f \left( \frac{1}{3} \cdot 0 +\frac{1}{3} \cdot 2 +\frac{1}{3} \cdot 0 , \frac{1}{3} \cdot 0 +\frac{1}{3} \cdot 0 +\frac{1}{3} \cdot 1 \right) \\
&=\, 1 \, f \left( \frac{2}{3} , \frac{1}{3} \right) \\
&=\, \cos \, \left( \frac{2}{3} + \frac{1}{3} \right) \\
&=\, \cos \, 1 \\
&\approx\, 0.5403
\end{align*}
\subsection*{Cuadratura Gaussiana en Tres Dimensiones}
%%%Figura
$$\int_{-1}^1 \int_{-1}^1 \int_{-1}^1 \, f(x,y,z) \, dx \, dy \, dz = \sum_i \sum_j \sum_k \, w_{_{i}} w_{_{j}} w_{_{k}} \, f ( x_{_{i}} , y_{_{j}} , z_{_{k}} )$$
%%%Figura
\begin{align*}
\int_R \, f(x,y,z) &=\, \int_0^1 \int_0^{ 1-L_{_{1}} } \int_0^{ 1-L_{_{2}} } \, f \left( L_{_{1}} , L_{_{2}} , L_{_{3}} , L_{_{4}} \right) \, dL_{_{1}} \, dL_{_{2}} \, dL_{_{3}} \\
&=\, \sum_i \, w_{_{i}} \, f \left( L_{_{1i}} , L_{_{2i}} , L_{_{3i}} , L_{_{4i}} \right)
\end{align*}
\subsection*{Elemento Tetrahédrico}
%%%Figura
$L_{_{1}} = \dfrac{ \text{Volumen} \, (PJKL) }{ \text{Volumen} \, (IJKL) } \qquad L_{_{1}} +L_{_{2}} +L_{_{3}} +L_{_{4}} = 1$
\subsection*{Elemento Tetrahédrico 4-Puntos}
%%%Figura
\begin{align*}
\phi (x,y,z) &=\, a_{_{1}} +a_{_{2}} x +a_{_{3}} y +a_{_{4}} z \\
&=\,
\begin{bmatrix}
1 & x & y & z
\end{bmatrix} \,
\begin{bmatrix}
a_{_{1}} \\ a_{_{2}} \\ a_{_{3}} \\ a_{_{4}}
\end{bmatrix} \qquad \ast \\
\sum_{i=1}^p \, a_{_{i}} x^{^{j}} y^{^{k}} z^{^{l}} & P &=\, \frac{ (n+1) (n+2) (n+3) }{6} \\
u_{_{1}} &=\, a_{_{1}} +a_{_{2}} x_{_{1}} +a_{_{3}} y_{_{1}} +a_{_{4}} z_{_{1}} & u_{_{2}} &=\, a_{_{1}} +a_{_{2}} x_{_{2}} +a_{_{3}} y_{_{2}} +a_{_{4}} z_{_{2}} \\
u_{_{3}} &=\, a_{_{1}} +a_{_{2}} x_{_{3}} +a_{_{3}} y_{_{3}} +a_{_{4}} z_{_{3}} & u_{_{4}} &=\, a_{_{1}} +a_{_{2}} x_{_{4}} +a_{_{3}} y_{_{4}} +a_{_{4}} z_{_{4}}
\end{align*}
$\begin{bmatrix}
u_{_{1}} \\ u_{_{2}} \\ u_{_{3}} \\ u_{_{4}}
\end{bmatrix} = \underbrace{
\begin{bmatrix}
1 & x_{_{1}} & y_{_{1}} & z_{_{1}} \\
1 & x_{_{2}} & y_{_{2}} & z_{_{2}} \\
1 & x_{_{3}} & y_{_{3}} & z_{_{3}} \\
1 & x_{_{4}} & y_{_{4}} & z_{_{4}}
\end{bmatrix} }_M \,
\begin{bmatrix}
a_{_{1}} \\ a_{_{2}} \\ a_{_{3}} \\ a_{_{4}}
\end{bmatrix}$
\begin{align*}
\begin{bmatrix}
a_{_{1}} & a_{_{2}} & a_{_{3}} & a_{_{4}}
\end{bmatrix}^{^{T}} &=\, M^{^{-1}} \,
\begin{bmatrix}
u_{_{1}} & u_{_{2}} & u_{_{3}} & u_{_{4}}
\end{bmatrix}^{^{T}} \qquad \star \\
\intertext{ sustituyendo $\star$ en $\ast$ nos queda }
\phi (x,y,z) &=\,
\begin{bmatrix}
1 & x & y & z
\end{bmatrix} \, M^{^{-1}} \,
\begin{bmatrix}
u_{_{1}} \\ u_{_{2}} \\ u_{_{3}} \\ u_{_{4}}
\end{bmatrix} \\
&=\,
\begin{bmatrix}
N_{_{1}} & N_{_{2}} & N_{_{3}} & N_{_{4}}
\end{bmatrix} \,
\begin{bmatrix}
u_{_{1}} \\ u_{_{2}} \\ u_{_{3}} \\ u_{_{4}}
\end{bmatrix} \\
\intertext{ donde los $N_{_{i}} = \dfrac{ V_{_{i}} }{V}$ }
V_{_{1}} &=\, \frac{1}{6} \,
\begin{bmatrix}
1 & 1 & 1 & 1 \\
x_{_{2}} & x_{_{4}} & x_{_{3}} & x \\
y_{_{2}} & y_{_{4}} & y_{_{3}} & x \\
z_{_{2}} & z_{_{4}} & z_{_{3}} & z
\end{bmatrix} &
V_{_{2}} &=\, \frac{1}{6} \,
\begin{bmatrix}
1 & 1 & 1 & 1 \\
x_{_{3}} & x_{_{1}} & x_{_{4}} & x \\
y_{_{3}} & y_{_{1}} & y_{_{4}} & y \\
z_{_{3}} & z_{_{1}} & z_{_{4}} & z
\end{bmatrix} \\
V_{_{3}} &=\, \frac{1}{6} \,
\begin{bmatrix}
1 & 1 & 1 & 1 \\
x_{_{4}} & x_{_{2}} & x_{_{1}} & x \\
y_{_{4}} & y_{_{2}} & y_{_{1}} & x \\
z_{_{4}} & z_{_{2}} & z_{_{1}} & z
\end{bmatrix} &
V_{_{4}} &=\, \frac{1}{6} \,
\begin{bmatrix}
1 & 1 & 1 & 1 \\
x_{_{1}} & x_{_{3}} & x_{_{2}} & x \\
y_{_{1}} & y_{_{3}} & y_{_{2}} & y \\
z_{_{1}} & z_{_{3}} & z_{_{2}} & z
\end{bmatrix}
\end{align*}
\subsection*{Elemento Tetrahédrico 10-Puntos Cudrático}
%%%Figura
Funciones de interpolación en los vértices
\begin{align*}
N_{_{1}} &=\, \left( 2 L_{_{1}} -1 \right) \, L_{_{1}} & N_{_{4}} &=\, \left( 2 L_{_{4}} -1 \right) \, L_{_{4}} \\
N_{_{2}} &=\, \left( 2 L_{_{2}} -1 \right) \, L_{_{2}} & N_{_{5}} &=\, 4 L_{_{1}} L_{_{2}} \\
N_{_{3}} &=\, \left( 2 L_{_{3}} -1 \right) \, L_{_{3}} & N_{_{6}} &=\, 4 L_{_{1}} L_{_{3}}
\end{align*}
\end{document}