Uso de las redes neuronales multicapas en la resolución de señales analíticas no aditivas
- Resumen
- Revisión
bibliográfica - Materiales y
métodos - Resultados y
discusión - Conclusiones
- Bibliografía
El comportamiento polarográfico de las
Sulfonamidas: Sulfadiazina, Sulfametazina y Sulfamerazina es
estudiado en solución Britton- Robinson, estos
compuestos presentan señales de reducción y picos
polarográficos bien definidos en Polarografía
Diferencial de Pulso (PDP) con valores
cercanos de Ep -700; -790 y 1140 mV respectivamente en medio
ácido (pH» 2). Sin
embargo cuando se encuentran juntas la señal obtenida en
DPP no concuerda con la suma de las señales de cada una
por separado. Este hecho puede ser explicado por el cambio de la
señal (dc) correspondiente que una de las Sulfonamidas
experimenta debido a la presencia de una o dos de las otras,
por lo que realizar el análisis directo de estas mezclas por
PDP sin aplicar métodos
de tratamiento de datos es
imposible. La posibilidad que un método
analítico multicomponente como las Redes Neuronales
Multicapas pueda resolver el análisis de mezclas
binarias o ternarias fue estudiado obteniéndose buenos
resultados.
Palabras claves: análisis químico
multicoponente, polarografía, redes neuronales,
sufonamidas, sulfadiazina, sulfamerazina,
sulfametazina
Los métodos analíticos instrumentales
incluyen siempre un proceso de
obtención y medición de una señal
analítica. Se llama señal analítica a
cualquier manifestación de una propiedad
química
o física
de una sustancia, a partir de la cual es posible el
establecimiento de la composición cualitativa de la
muestra o la
determinación cuantitativa de uno o más de sus
componentes.
Como es conocido, una de las dificultades que se
presentan en Química Analítica en la
determinación simultánea de dos o más
especies químicas presentes en la muestra, es la
interferencia; en el caso de los análisis cuantitativos
instrumentales esta dificulta y complica el procedimiento
analítico.
Una de las causas más frecuentes de las
interferencias, radica en la no total resolución de las
señales instrumentales de do o más analitos
presentes simultáneamente durante el proceso de
medición final. Esto se presenta frecuentemente en
métodos instrumentales tales como
Espectrofotometría de Absorción Molecular,
Voltametría, Absorción Atómica, etc, en
los que la selectividad es afectada por el sobrelapamiento de
las señales analíticas1-2.
En la actualidad existen varias técnicas
con la finalidad de resolver este problema como son: Regresión
Lineal Multivariada, Técnicas de Derivación,
etc3,4 . Las Redes Neuronales Multicapas, propuestas
recientemente, brindan una herramienta poderosa que pueden ser
usadas en diferentes campos de la Química
Analítica, ya que son capaces de tratar un juego de
datos en los que exista interacción y comportamiento no lineal
5.
Un caso concreto de
superposición es el comportamiento polarográfico
de las Sulfonamidas: Sulfadiazina (SDZ), Sulfamerazina (SMR) y
Sulfametazina (SMT). Estos compuestos presentan bien definido
el pico polarográfico obtenido por Polarografía
Diferencial de Pulso (PDP) sin embargo, cuando se presentan
juntos, la señal obtenida no concuerda, con la suma de
las señales de cada uno cuando se presentan solos,
debido a esto el análisis de estas mezclas sin aplicar
métodos de tratamientos de datos, por PDP es
imposible.
El objetivo de
este trabajo es
estudiar la posibilidad de la resolución de las
señales de estos compuestos mediante el empleo de
las Redes Neuronales Multicapas, entrenas con el algoritmo de
Back Propagation como método de aprendizaje.
CAPITULO 2.
REVISIÓN BIBLIOGRÁFICA
2.1 Redes Neuronales Artificiales.
2.1.1 Introducción
Las Redes Neuronales Multicapas (RNA) son modelos
computacionales que simulan el comportamiento del cerebro humano
en algunas de sus funciones, se
desarrollaron con el objetivo de resolver problemas
cuyas soluciones
resultaron insuficientes por los métodos
tradicionales.
Una red neuronal puede
considerarse como una caja negra que recibe datos de entrada y
a partir de ellos produce una salida Esta caja negra en
realidad está compuesta por unidades interconectadas
entre sí. En ella existe una parte que recibe la
información (entrada), una parte que
procesa y una parte que suministra los resultados (salida)
6.
La entrada pasa a través de conexiones, se
distribuye y transforma para producir la salida. La
transformación de los datos ocurre en las unidades, que
son llamadas neuronas artificiales o simplemente neuronas y la
distribución se establece mediante las
interconexiones existentes entre ellas.
En realidad, muchos autores insisten en que lo
fundamental no está en lo ¨neuronal" de estos
sistemas, sino
en la ¨interconexión" de los elementos que la
forman. Esta interconexión permite, hasta cierto punto,
simular la ejecución de los diferentes procesos que
ocurren en el cerebro con una increíble velocidad.
Es conocido que una función
cerebral no depende únicamente de una neurona sino
de un grupo
interconectado de ellas que asumen, de forma conjunta, la
realización de dicha función. Las Redes
Neuronales están formadas por neuronas artificiales
conectadas entre sí, las cuales se diseñan
imitando el funcionamiento de una neurona de un organismo
vivo.
Es de destacar que la capacidad de las Redes
Neuronales Artificiales desarrolladas hasta el momento es muy
reducida en comparación con la del cerebro humano, en el
cual se estima la existencia de alrededor de unas
1011 neuronas, cada una de las cuales están
interconectadas con unas 103 neuronas.
Una neurona biológica típica tiene tres
partes principales; el soma, que es el cuerpo de la
célula y dos extensiones de este: el axón y
las dendritas Fig. 1. Las dendritas reciben Ios impulsos
nerviosos desde otras neuronas y los transmiten hacia el soma,
que se ramifica colateralmente, terminando en puntos de
contacto (sinapsis) con las dendritas o el soma de otras
neuronas. El axón es el responsable de enviar los
impulsos a neuronas vecinas.
Fig. 1 Esquema de una neurona
biológica
2.1.2 Aplicaciones
Las primeras investigaciones
en este campo provienen de Mc Culloch en A. Logical Calculus of
Ideas in Nervous Activity. Pero no es hasta la década de
los 80, con el desarrollo
de las computadoras
que comienzan a ser ampliamente utilizadas y estudiadas en gran
variedad de aplicaciones. Sobre todo a partir del
descubrimiento y formalización del Back Propagation como
algoritmo para entrenar Redes Neuronales con estructuras
multicapas7-8-9.
Es muy amplio el uso de las Redes Neuronales para el
procesamiento de señales, especialmente en
Quimiometría se ha reportado su uso en muchas
aplicaciones para la solución de problemas de
clasificación, mapeo no lineal multivariado y
análisis cuantitativo 10.
Aunque existen numerosos tipos de
Redes Neuronales, las que tienen mayor aplicación
son las conocidas como Redes Neuronales Multicapas entrenadas
con el algoritmo de Propagación hacia atrás de
los errores o "Back Propagation of errors".
Las redes entrenadas por el Back Propagation, son
consideradas quizás las más generales de las
Redes Neuronales Artificiales. Son usadas en problemas de
predicción, clasificación, reconocimiento de
patrones, estimación de parámetros y
resolución de señales.
2.1.3 Arquitectura de
las redes.
Al usar el Back Propagation la red es alimentada hacia
adelante y se entrena de forma supervisada. Estas redes se
conocen también como Redes Neuronales
Multicapas11. Su estructura
es por capas donde la información va desde la capa de
entrada pasando por las capas intermedias (ocultas), hasta la
capa de salida.
Las neuronas y las capas de neuronas se dibujan de
forma que recuerdan las neuronas biológicas, con
círculos como neuronas y líneas de
interconexión como dendritas y axones. Las sinapsis se
ubican en algún punto de las líneas de
interconexión. Fig 2.
Fig.2. Red neuronal
artificial multicapa de arquitectura 5x3x2
Las redes multicapas operan secuencialmente, las
neuronas de una capa no reciben las señales hasta que la
capa superior (la capa anterior) no las haya procesado
12.
Las capas están completamente conectadas con las
capas que le anteceden, de esta forma cada una mantiene una
matriz de peso
para las conexiones de la capa anterior.
La selección
del tipo adecuado de arquitectura de la Red Neuronal
(número de neuronas en cada capa y el número de
capas) 13 para cada caso concreto, es un problema
empírico (prueba y error).
Todas las neuronas de una capa tendrán la misma
cantidad de pesos (sinapsis) y todas recibirán la misma
señal dimensional de entrada simultáneamente.
El proceso de corrección de los pesos comienza por la
última capa y continua por las capas que le anteceden
hacia la capa de entrada El error calculado en la capa de salida
es pasado hacia atrás para ajustar los pesos, de
aquí el nombre de Propagación hacia atrás de
los errores 14 y se basa en el método del
descenso por el gradiente o de la mayor pendiente el cual
minimiza el error actualizando los pesos desde la capa de salida
hasta la de entrada.
La resolución de señales por Back
Propagation se realiza de la siguiente forma: a la red neuronal
se le suministran por las unidades de entrada un conjunto de
información, por ejemplo (valores de las ordenadas) de un
espectro o voltamperograma 15. La red neuronal recibe
esta información y luego de ser entrenada debe ser capaz
de estimar los parámetros de las señales que
componen la señal muestreada. De esta forma el Back
Propagation actúa como un estimador de parámetros
que tiene tantas salidas como componentes tiene la señal
compuesta de entrada. Fig. 3.
Fig. 3. Forma esquemática de la
toma de información de una red neuronal. Red de
arquitectura 20x20x3
Para que este algoritmo sea capaz de realizar una
estimación aceptable es preciso entrenar la red
previamente con un conjunto de señales compuestas, de
las cuales se conocen los parámetros de sus componentes
(entrenamiento
supervisado)16. Dichas señales de
entrenamiento deben abarcar lo mejor posible todo el espacio de
las señales compuestas, de manera que la red posea dicha
información para la estimación. Una vez realizado
el entrenamiento la Red Neuronal es capaz de estimar
correctamente en zonas del espacio de muestra en las que no se
entrenó.
El entrenamiento es la etapa que puede consumir un
tiempo de
cálculo importante. Este es
función entre otros factores, de la velocidad del
ordenador, el número de neuronas y el número de
capas. Una vez entrenada la red el proceso de obtención
de resultados a partir de problemas desconocidos
(propagación) es prácticamente
inmediato.
Este algoritmo de entrenamiento de las Redes
Neuronales, tiene la ventaja de no necesitar un conocimiento
previo de la forma de la señal analítica tratada,
o sea, puede ser usado para modelar el sistema, lo que
es de gran utilidad en los
casos en que el modelo
matemático que describe el sistema es desconocido.
Además, el trabajo
con este tipo de redes puede utilizarse con información
heterogénea, o sea, los vectores de
entrada pueden contener variables de
diferentes naturaleza,
lo que en principio permite su uso en problemas de naturaleza
muy diferentes.
Es necesario resaltar que de acuerdo a los resultados
reportados en la bibliografía, los continuos avances, y la
velocidad de procesamientos de la información se espera
un importante incremento del uso de las Redes Neuronales en
sistemas multicomponentes de mayor complejidad así como
otras aplicaciones importantes de las redes en sistemas
diversos.
2.2 Principio del método
Voltamétrico Diferencial de Pulso (VDP).
La única diferencia que existe entre la
Polarografía Diferencial de Pulso (PDP) y la VDP es que
en esta última no se trabaja con un electrodo goteador
de mercurio (EGM).
Aunque desde el punto de vista teórico no existen
grandes diferencias entre la VDP y la PDP, es necesario subrayar
dos ventajas prácticas de la primera
17
1. El gasto de mercurio es de 0,5 a 2 órdenes
menor que en el caso de la PDP, ya que usa un electrodo de gota
estacionaria de mercurio y no un EGM.
2. La máxima velocidad de barrido no va a
depender de la máxima velocidad de desprendimiento
mecánico de la gota de mercurio y la formación de
la nueva gota como ocurre en el caso de la PDP
En la VDP se impone a los electrodos una rampa de
potencial Iinealmente variable en el tiempo conjuntamente con
un pulso cuadrado periódico con una frecuencia,
duración y amplitud dada.
El pulso es aplicado por alrededor de 50 ms al final del
tiempo de vida de la gota (en el caso de la polarografía)
y la corriente se mide en dos momentos separados por ese tiempo.
El primero inmediatamente antes del pulso de potencial y el
segundo al final del pulso. Fig.4
Fig. 4 Variación del potencial
en el tiempo.
1; 2: Momentos en que se mide la
corriente.
clock: Representa el intervalo de
tiempo entre los Pulsos.
La diferencia de corriente (∆i) entre estas dos
mediciones para cada pulso es la que se registra en
función del potencial linealmente variable en el tiempo
18. El resultado es una curva diferencial que
presenta un máximo de corriente cuya altura es
directamente proporcional a la concentración del
elemento en solución como se observa en la Fig.
5
Fig. 5 Esquema de un
voltamograma diferencial de pulso.
∆i: Diferencia entre la corriente
medida inmediatamente antes y al final de los pulsos de
potencial.
Hp: Altura de los picos.
Ep: Potencial de pico.
A: Semiancho del pico.
Algunas características de la
VDP son:
• Se pueden observar picos
individuales para mezclas de sustancias cuyas diferencias de
potenciales de media onda sean pequeñas (del orden de
las decenas de mV).
• Aumenta la sensibilidad del método
polarográfico clásico alrededor de tres
órdenes de magnitud, alcanzando en los mejores casos
valores hasta 10-8 mol/L debido a un aumento de la
corriente faradaica y a una disminución de la corriente
capacitiva.
CAPÍTULO 3.
MATERIALES Y
MÉTODOS
3.1 REACTIVOS Y SOLUCIONES.
Fueron utilizadas las siguientes soluciones y
reactivos.
Solución estándar de
Sulfadiazina
Solución estándar de
Sulfamerazina
Solución estándar de
Sulfametazina
Solución de Hidróxido de
Sodio.
Solución de Ácido
Bórico.
Solución de Ácido
Fosfórico.
Solución de Ácido
Acético
H20 destilada
Todos reactivos puros para análisis.
Se prepararon soluciones madres de concentración
25 μg/ml en el electrolito soporte, y de estas se
prepararon 25 ml de patrones de trabajo y soluciones mezclas en
un intervalo de concentraciσn de 0 a 4
μg/ml todas en el electrolito soporte.
El procedimiento utilizado fue el siguiente: De las
soluciones preparadas se añade un volumen de unos 5
ml en la celda, se elimina el oxigeno
burbujeando nitrógeno durante 5 minutos y se obtienen los
voltamogramas.
3.2 EQUIPO DE MEDICIÓN
UTILIZADO
El equipamiento electroquímico
usado fue un Autolab (Ecochemic, Holanda) PSTAT – 10 y un
electrodo de mercurio Metrohm ( Herisau, Suisa) 663 VA ambos
controlados por una microcomputadora.
Los electrodos utilizados fueron:
Electrodo de referencia: Ag/AgCI
(saturado).
Contraelectrodo: Placa de Platino de aproximadamente 2
cm2.
3.3 CONDICIONES DE TRABAJO EN EL EQUIPO DE
MEDICIÓN
Experimentos previos permitieron seleccionar las
condiciones experimentales de trabajo mostradas a
continuación.
Método | DPP |
Potencial inicial | -0.4 |
Intervalo de barrido | -0.4 a -1.1 |
Velocidad de barrido | 5 |
Tiempo de formación de | 0.5 |
Amplitud (-∆E) | -100 |
Velocidad de barrido | 9.7 |
Tiempo de duración del | 40 |
CAPITULO 4.
RESULTADOS Y DISCUSIÓN
El comportamiento polarográfico de los
compuestos estudiados es muy similar. La SDZ, SMR y SMT
presentan una señal de reducción bien definida en
medio ácido.
Las diferencias entre los valores
de potenciales de los tres picos están alrededor de 90
mV (entre la SDZ y SMR) y 150 mV (entre la SMR y
SMT).
Aunque estos tres compuestos presentan bien definidas
sus ondas
polarográficas y sus picos de PDP, el comportamiento de
cada una de las Sulfonamidas en presencia de las otras es de
interés, ya que existen modificaciones en
la forma de la curva, no pudiendo determinarse la altura de los
picos para cada elemento por separado. A este problema de
resolución se le encontró solución a
través de las Redes Neuronales.
En la Fig. 6. se muestran los picos de PDP de
disoluciones separadas de SDZ, SMR y SMT junto a una que
corresponde a una mezcla de estos tres compuestos. Puede
observarse que la curva correspondiente a la mezcla no
corresponde a la superposición de las otras
señales.
Fig. 6. Voltamogramas de soluciones de
SDZ, SMR y SMT (2 μg/ml) y de una mezcla
ternaria (2 μg/ml de cada una)
1. SDZ 2 μg/ml
2. SMR 2 μg/ml
3. SDZ 2 μg/ml
4. Mezcla ternaria de SDZ, SMR y SMT 2
μg/ml de cada una.
4.1 RESOLUCION DE LAS MEZCLAS.
4.1.1 Determinación de la
concentración de un sistema formado por SDZ, SMR y
SMT.
Para realizar este experimento se prepararon
disoluciones de SDZ, SMR y SMT en un intervalo de
concentración de 0 a 4 μg/mI en buffer
Britton- Robinson y se obtuvieron los voltamogramas
correspondientes, como los mostrados en la Fig. 6.
Se realizó un procesamiento previo de las
señales antes de aplicar la técnica mencionada.
El mismo consistió en lo siguiente.
- Se elimina la parte de la señal que no es de
interés y se trabaja con las respectivas señales
ya alineadas. - Se realiza un suavizado utilizando el filtro Savitzky
– Golay 19 tomando una ventana de 3 puntos y
aplicando 5 pases del filtro. - Se aplicó un proceso de normalización a todas las
curvas.
A partir de los datos normalizados de estas curvas se
preparan dos ficheros: Un fichero de entrenamiento y uno de
validación.
Se realizó el entrenamiento con varias redes,
con el objetivo de estudiar la variación del error con
la topología de la red. Las arquitecturas
investigadas fueron:
Se tomaron 11 disoluciones mezclas de patrones para
conformar el fichero de entrenamiento. En la tabla 1 se muestra
la composición de las mezclas usadas para el
entrenamiento.
Tabla 1. Composición de las diferentes mezclas
usadas en el set de entrenamiento
Mezclas No. | SDZ (μg) | SMR (μg) | SMT (μg) |
1 | 50 | 0 | 0 |
2 | 100 | 0 | 0 |
3 | 50 | 50 | 0 |
4 | 50 | 50 | 50 |
5 | 100 | 50 | 50 |
6 | 50 | 100 | 50 |
7 | 100 | 100 | 50 |
8 | 50 | 50 | 100 |
9 | 100 | 50 | 100 |
10 | 50 | 100 | 100 |
11 | 100 | 100 | 100 |
Con este set de entrenamiento se formaron los ficheros
correspondientes para entrenar las diferentes redes investigadas,
tomando 10, 20 y 30 puntos equidistantes en potenciales en cada
una de las 11 curvas de la tabla 1.
En la tabla 2 se muestran los resultados obtenidos
durante el entrenamiento con las redes estudiadas.
Tabla 2. Resultados obtenidos del entrenamiento de las
redes estudiadas.
Estructuras de las | Error %(*) | Tiempo (min) |
30x5x3 | 12.18 | 103.04 |
30x10x3 | 12.60 | 404.81 |
30x20x3 | 9.62 | 1022.21 |
30x3x3 | 10.520 | 1041.22 |
30×3 | 11.32 | 127.74 |
30x20x10x3 | 12.33 | 836.29 |
30x30x20x3 | 10.11 | 842.64 |
20x5x3 | 11.81 | 194.81 |
20x10x3 | 11.82 | 1087.31 |
20x20x3 | 11.28 | 775.81 |
10x5x3 | 13.15 | 1201.88 |
10x10x3 | 10.49 | 139.22 |
30x20x3 | 7.33 | 41.99 |
20x20x3 | 6.06 | 76.07 |
10x10x3 | 6.25 | 52.21 |
30x20x3 | 4.93 | 57.24 |
20x20x3 | 6.06 | 40.35 |
10x10x3 | 4.77 | 35.39 |
(*)
%error = 100 Σ
/Oij –
dij /
n j=1 dij
Donde:
j: contador del número del
patrón
i : contador del componente
Oij: Concentración
obtenida
dij : concentración
esperada
Después de realizado el entrenamiento con todas
las redes mencionadas, se seleccionó la red l0xl0x3 por
brindar una convergencia más rápida y un menor
error (4,77 %). Esto puede observarse en la Fig. 7
Fig. 7 Variación del error en el
tiempo para las siguientes redes:
Red de arquitectura 10x10x3
Red de arquitectura 20x10x3
Red de arquitectura 30x10x3
En la Tabla 3 se muestran los resultados obtenidos del
entrenamiento.
Tabla 3. Resultados obtenidos después del
entrenamiento con la red 10x10x3
MezclaNo. | Añadido (μg) | Encontrado (μg) | Error (%) | ||||||
SDZ | SMR | SMT | SDZ | SMR | SMT | SDZ | SMR | SMT | |
1 | 50 | 0 | 0 | 51.4 | -0.02 | -0.40 | -2.83 | – | – |
2 | 100 | 0 | 0 | 98.1 | 0.33 | 0.43 | 1.82 | – | – |
3 | 50 | 50 | 0 | 49.0 | 50.90 | -1.80 | 1.96 | -1.81 | – |
4 | 50 | 50 | 50 | 46.6 | 48.51 | 48.43 | 6.79 | 2.97 | 3.13 |
5 | 100 | 50 | 50 | 100 | 48.91 | 52.31 | -0.148 | 2.16 | -4.62 |
6 | 50 | 100 | 50 | 49.5 | 100 | 52.75 | 0.82 | -0.79 | -5.51 |
7 | 100 | 100 | 50 | 100 | 99.51 | 47.42 | -0.73 | 0.48 | 5.14 |
8 | 50 | 50 | 100 | 50.8 | 48.94 | 99.93 | -1.67 | 2.10 | 0.06 |
9 | 100 | 50 | 100 | 99.4 | 52.82 | 98.59 | 0.59 | -5.65 | 1.40 |
10 | 50 | 100 | 100 | 50.5 | 99.65 | 99.75 | -1.09 | 0.34 | 0.24 |
11 | 100 | 100 | 100 | 99.8 | 101.31 | 97.59 | 0.16 | -1.31 | 2.40 |
En las figuras 8, 9 y 10 se muestra en forma
gráfica el contenido de la Tabla 3, aplicando el
método de regresión lineal y en la Tabla 4 el
resultado estadístico de la regresión lineal para
dichas disoluciones.
Fig. 8 Regresión lineal para la
SDZ
Fig. 9 Regresión lineal para la
SMR
Fig.10 Regresión lineal para la
SMT
Tabla 4. Resultados estadísticos obtenidos de la
regresión lineal para la SDZ, SMR y SMT
Compuesto | Ecuación | r2 |
SDZ | y = – 0,013006 + 0,999855 | 0.99863 |
SMR | y = 0,000502 + 1,0023 | 0.99944 |
SMT | y=-0,00615 + 0,994532 x | 0,9991 |
Como se observa los interceptos obtenidos son cercanos
a cero y la pendiente cercana a uno 20.
La composición de las disoluciones utilizadas
para la validación, se muestran en la Tabla 5. En ella
también se muestran los resultados obtenidos
después de la propagación.
Tabla 5. Resultados obtenidos después de la
propagación.
Mezcla No. | Añadido (μg) | Encontrado (μg) | Error (%) | ||||||
SDZ | SMR | SMT | SDZ | SMR | SMT | SDZ | SMR | SMT | |
1 | 0 | 25 | 40 | 0.75 | 11.25 | 25.25 | – | 55 | 36.87 |
2 | 0 | 75 | 75 | 1.25 | 86.5 | 80 | – | -15.3 | -6.66 |
3 | 100 | 75 | 100 | 99.75 | 85.5 | 99 | 0.5 | 14 | 1 |
4 | 50 | 0 | 75 | 53.25 | 0.75 | 75 | -6.88 | – | 0 |
5 | 40 | 12 | 40 | 32.75 | 4.75 | 24.75 | 18.12 | -60.4 | 38.1 |
6 | 75 | 75 | 0 | 88.25 | 88.5 | 1.5 | -17.78 | -18 | – |
7 | 66.75 | 68.25 | 0 | 56.75 | 84.25 | 0.75 | 14.71 | -23.44 | – |
8 | 50.5 | 0 | 59.75 | 44.5 | 3 | 59.75 | 11.9 | – | 0 |
9 | 50 | 65 | 0 | 48.75 | 78.75 | 1.5 | 2.23 | -21.15 | – |
En la Figura 11. se presenta en forma gráfica el
contenido de la Tabla 4 y en la Tabla 6 los resultados obtenidos
de la regresión lineal para estas disoluciones
Fig.11 Resultados estadísticos
obtenidos de la regresión lineal para las disoluciones
de SDZ, SMR y SMT
Tabla 6. Ecuación de
calibración para las disoluciones de SDZ, SMR y
SMT
Compuesto | Ecuación | r2 |
SDZ | y = – 0,05236 + 1,0128 | 0,97922 |
SMR | y = -0,19082 + 1,23007 | 0,98659 |
SMT | y = -0,1048 | 0,9815 |
Se aplican las Redes Neuronales Multicapas, entrenadas
con el algoritmo de Back Propagation, a la resolución de
señales por Polarografía Diferencial de Pulso
para la determinación de SDZ, SMR y SMT.
De las redes estudiadas, las variantes con menor
cantidad de unidades (10 en la capa de entrada) presentan las
convergencias más rápidas.
Los errores obtenidos, utilizando las diferentes
arquitecturas estudiadas, no se diferencian considerablemente.
El menor error obtenido (4,77 %), se presenta en el caso de la
red (10x10x3).
1. Mc Willian, I. G. Anal. Chem., 41, 674,
(1969).
2. Mc Willian, I. G., Overland, J. Appl. Opt., 6, 457,
(1967).
3. Snelleman, W., Rains, T. C., Yel, K. W. Cook, H.
D., Mein, O. Anal. Chem., 42, 394, (1970).
4. Fowler, W. K., Knapp. D. O., y Winefordner, J. D.
Anal. Chem., 46, 601,(1974)
5. Borggaard and H. H. thodberg. Anall. Chem., 64,
545, (1992)
6. S. Weigend, B. A. Huberman and D. E. Rumelhart,
Int. J. Neural Syst. Submitted for publication
7. B. Parker. Learning Logic. Technical Peprt TR- 47,
Center for Computation Reseach in Economis Managemet Sciences,
MIT, Cambridge, MA, (1985)
8. Werbos. Beyond Regression: New Tools for Prediction
and Analysis in Behavioral Sciences, Phd tesis,
Harvard, Cambridge, MA, (1974)
9. Mc Clelland and D. Rumelhart, Exploration in
Parallel Distributed Processing. MIT Pres, Cambridge, MA,
(1986)
10. Shierle and M. Otto, Comparison of a neural
network with multiple linear regression for quantitative
analysis in ICP- atomic ernision espectroscopy. Anal. Chem.
344; 190, (1992)
11. P. Lippmann, JEEE ASSP Mag., April, 4,
(1987)
12. E. Rumelhart and J. L. Mc Clelland Exploration
Parallel Distributed Processing, Vols. 1 and 2. MIT Press,
Bradford, (1986)
13. Bos, M. Bos and W. E. Van der Liden, Anal. Chim.
Acta 256. 133, (1992)
14. D. Sanger; Contribution analysis: a technique for
assigning responsibilities to hidden units in connectionist
networks. Connection Science, 1, 115, (1989)
15. Smits, P. Schoenmakus, A. Stehmann, F. Sijter maus
and G. Kateman, Chemom. Intell. Lab. Syst., 18, 27,
(1993)
16. J. Melssen, J. R. M. Smits, G, H. Rolf and
Kateman. Chemom. Intell. Lab. Syst., 18, 195, (1993)
17. Alpizar, J., Albertús, F., Llerena, A.
Manual de
prácticas de laboratorio
Análisis Instrumental (II), ENPES, La Habana, 138 – 141,
(1989).
18. Alpizar, J., Albertús, F., Llerena, A.
Fundamentos de los métodos electroquímicos de
análisis (II), ENPES, La Habana, 254, 314 – 315,
(1989)
19. Savitzky, A., Golay, M., Anal. Chem., 36, 16, 27,
(1964)
20. Alpizar, J., Iglesias, M., López, R.,
Introducción a la elaboración matemática de los resultados
experimentales, ENPES, La Habana, (1990)
Autora:
Maité Teresa Valdor
Hernández
Profesora de Química, Licenciada en
Química.
Universidad Pedagógica Técnica
"Héctor A. Zaldívar Pineda",
Ciudad de La Habana, Cuba