Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

El proceso de segmentación automática de lesiones patológicas en imágenes de mamografías (página 2)




Enviado por Arnaldo Faustino



Partes: 1, 2, 3

Monografias.com

La forma más común para convertir una
imagen en niveles de grises a una imagen monocroma es
seleccionando un umbral, donde todos los píxeles cuyos
niveles de intensidad estén por debajo de este umbral, se
clasifican con valor 0 (píxeles negros) y los que
estén por encima, con valor 1 (píxeles blancos).
Encontrar el valor correcto del umbral resulta lo más
difícil.

En aplicaciones reales raras veces se puede emplear un
umbral fijo para todos los píxeles de la imagen. Las
variaciones locales en el nivel de gris de los píxeles son
frecuentemente, motivadas por problemas de iluminación no
uniforme de la escena o por irregularidades de los dispositivos
de captura. En estos casos resulta mucho más frecuente
recurrir a un proceso de umbralización, conocido como
umbralización adaptativa, dependiente de la
posición del píxel en la imagen. De esta forma,
cada zona de la imagen, o incluso cada píxel, se procesa
respecto a un umbral calculado en un entorno local de la propia
zona, o píxel.

Si se conoce a priori alguna propiedad sobre la
imagen se simplifica mucho la búsqueda del valor del
umbral: escogiendo aquel que permite cumplir la propiedad
conocida.

Monografias.com

Si se conoce aproximadamente el área de la imagen
que deben cubrir los objetos de interés, se selecciona en
el histograma el valor que permite asegurar que los objetos
segmentados en la imagen tienen aproximadamente, esa
área.

El método de umbralización reportado en la
literatura más empleado es la selección del
histograma, el cual se implementa buscando mínimos locales
entre máximos locales significativos y utilizando el nivel
de gris de esos mínimos como umbral de
segmentación. O sea, en primer lugar se localiza el mayor
máximo local (máximo global) del histograma (que se
corresponderá a un máximo de probabilidad asociado
a un objeto). A continuación se localiza el segundo mayor
máximo local del histograma (máximo de probabilidad
asociado a otro objeto o al fondo de la imagen). Por
último, se localiza el mínimo local entre ambos
máximos y se utiliza su valor como valor para el umbral.
En el caso de existir más de un objeto de interés
se reitera el proceso. Quizás se necesite aplicar un
suavizado previo al histograma o un criterio de distancia
mínima entre picos, para evitar la detección de
dobles picos producto al ruido.

Se han reportado varias técnicas que intentan
mejorar los resultados de una simple umbralización por
mínimos locales, mejorando la decisión sobre el
punto de umbral. Una de las más utilizadas es la
umbralización óptima, o método de Otsu, en
el cual se aproxima el histograma de la imagen mediante la suma
ponderada de varias distribuciones de probabilidad pertenecientes
a cada uno de los objetos presentes en la imagen. Los valores de
umbral se fijan en los puntos de mínima
probabilidad.

1.2.3 Modelos y contornos deformables.

El desarrollo de los Modelos (Superficies) Deformables
[33, 34], conocidos popularmente como snakes han captado
la atención de los investigadores de diversas áreas
de la ciencia, ya que estos han sido utilizados ampliamente en la
segmentación de objetos en imágenes 2D y
3D respectivamente. Su principal ventaja radica en la
posibilidad de segmentar y seguir objetos cuya morfología
puede variar en un intervalo de tiempo dado.

Desde la introducción de los snakes en
el análisis de imágenes por Kass y otros [33] son
diversas las variantes, extensiones y alternativas que se han
desarrollado del snake original; entre las cuales se
pueden citar los trabajos de Terzopoulos, McInerney, Singh,
Goldgof, Blake e Isard, respectivamente [26, 35, 36].

  • Conocimiento estadístico previo de la
    forma.

La formulación original de los snakes es
demasiado general para obtener resultados aceptables al procesar
imágenes donde existan anormalidades en su forma y
apariencia debido a oclusiones, estructuras irrelevantes cercanas
a los bordes o ruido. Esto ha provocado el origen de varias
técnicas que utilizan el conocimiento previo de la forma
del objeto para la segmentación del mismo como los Modelos
de Formas Activas (MFA) propuesto por Cootes [37]. Cootes (1993)
[5, 38] plantea que los MFA constituyen una técnica de
modelación de formas activas de gran aplicación
para la segmentación de estructuras anatómicas en
imágenes médicas.

Los MFA mejoraron considerablemente los resultados de la
segmentación, no obstante, el modelo requería de un
entrenamiento previo, tornándose menos general.

En los MFA la variación estadística de las
formas que pertenecen a una clase específica de objetos se
modela de antemano con un juego de imágenes de
entrenamiento. Para esto se supone un modelo inicial y se aplica
de forma tal que pueda deformarse de acuerdo a los datos de la
imagen. Las deformaciones propuestas se escogen para minimizar
una cierta función de energía y a su vez son
restringidas para ser consistentes con el conocimiento previo
sobre el objeto. La función de energía es
seleccionada a medida que el modelo sea atraído hacia
ciertas características extraídas de los valores de
intensidades (escala de grises) de la imagen.

Se han desarrollado varias mejoras al método de
los MFA básicos; por ejemplo, Hill [39, 40, 41] propuso un
algoritmo de generación de acotamiento automático
basado en la multi-resolución de los MFA presentados por
Cootes [42]; además sugirió abordar la
introducción de los MFA como un problema de
optimización utilizando técnicas de algoritmos
genéticos [43].

Como se pudo apreciar en la sección anterior, los
Modelos Deformables son de gran importancia para la ciencia y la
técnica debido a las posibilidades que brinda su
aplicación en la segmentación de
imágenes.

El modelo matemático del snake
paramétrico lo propusieron con efectividad por primera vez
Kass y Terzopoulos [33,44] como una herramienta para resolver el
problema de la segmentación. Este método consiste
en lograr una minimización de energía guiada por un
spline mediante fuerzas de restricciones externas y la
influencia de fuerzas de campos potenciales que lo mueven hacia
las características de interés en la
imagen.

Monografias.com

  • Contornos activos: técnica live
    wire.

El live wire (o cortes inteligentes) es una
técnica interactiva de seguimiento de bordes [6, 45, 46,
47, 48, 49]. Esta comparte algunas similaridades con los
snakes y fue originalmente desarrollada como una
extensión 2D interactiva con etapas
previas.

Esta técnica se considera como un competidor de
los snakes, pues al igual que los snakes, la
idea del live wire es permitir la segmentación de
la imagen con una mínima interacción por parte del
usuario, mientras le permite al usuario ejercer el control sobre
el proceso de segmentación.

La génesis del live wire está en
la colaboración entre Adupa (Universidad de Pennsylvania)
y Barrett (Universidad Joven de Brigham).

La técnica live wire comparte dos
componentes esenciales: una función de costo total que
asigna un costo más bajo a los rasgos de interés de
la imagen como los bordes y un proceso de expansión que
forma bordes óptimos para los objetos de interés,
basado en la función de costo. El borde encontrado con el
live wire puede ser formulado como una búsqueda
en un grafo dirigido por un camino óptimo (costo
mínimo) usando el algoritmo de
Dijkstra.

Función de costo.

Monografias.com

El cerebro es un elemento de procesamiento de la
información extremadamente complejo, cuyo modo de
funcionamiento es eminentemente paralelo y cuyo comportamiento no
puede describirse por medio de modelos sencillos como son los
lineales. Fue el científico español Ramón y
Cajal (premio Nobel en 1911) quien a finales del siglo
XIX desarrolló y presentó la noción
de neurona como elemento estructural constitutivo del
cerebro.

Entre los elementos de su estructura histológica
(ver anexo # 2) están:

  • Las dendritas, que son la vía de entrada de
    las señales que se combinan en el cuerpo de la
    neurona. De alguna manera la neurona elabora una señal
    de salida a partir de ellas.

  • El axón, que es el camino de salida de la
    señal generada por la neurona.

  • Las sinapsis, que son las unidades funcionales y
    estructurales elementales que median entre las interacciones
    de las neuronas. En las terminaciones de las sinapsis se
    encuentran unas vesículas que contienen unas
    sustancias químicas llamadas neurotransmisores, que
    ayudan a la propagación de las señales
    electroquímicas de una neurona a otra.

El concepto de plasticidad está relacionado con
la capacidad del cerebro frente a la adaptación de acuerdo
a los estímulos exteriores. En un cerebro adulto la
plasticidad se puede llevar a cabo por dos procedimientos:
creación de nuevas conexiones sinápticas entre las
neuronas y la modificación de las ya
existentes.

Como en otras tantas ocasiones, el ser humano ha
intentado imitar la plasticidad que parece ser la clave esencial
en el funcionamiento de las neuronas biológicas,
modelándola en las RNA. Varias han sido las definiciones
reportadas en la literatura sobre el concepto de RNA, por
ejemplo: algunos autores [51] plantean que una RNA es un
procesador masivamente paralelo distribuido que es propenso por
naturaleza a almacenar conocimiento experimental y hacerlo
disponible para su uso; otros plantean que una RNA es un modelo
computacional con un conjunto de propiedades específicas,
como son la habilidad de adaptarse o aprender, generalizar u
organizar la información, todo ello basado en un
procesamiento eminentemente paralelo [52].

Modelo de Neurona.

La neurona es un elemento de procesamiento
de la información que juega un papel fundamental en una
red neuronal.

Monografias.com

Hay una infinidad de funciones para ser utilizadas como
función de activación, pero se pueden distinguir
tres grandes clases: tipo escalón, lineales a trozos y
sigmoide. La elección de la función de
activación depende fuertemente del algoritmo de
aprendizaje que se vaya a utilizar.

Muchas veces se habla de arquitectura de una RNA. Este
concepto se refiere básicamente a la manera en que se
interconectan los distintos elementos de proceso que forman la
red.

En una RNA los elementos de proceso se organizan como
una secuencia de capas con un determinado patrón de
interconexión entre los diferentes elementos de proceso
que la forman, y con un patrón de conexión entre
los elementos de proceso de las distintas capas. Uno de los
rasgos que puede ayudar a definir una capa es el hecho de que
todos los elementos de proceso que la forman usan la misma
función de transferencia.

En muchas de las arquitecturas de RNA se puede hacer la
siguiente distinción entre las capas:

  • Capa de entrada: Es la capa que recibe los
    estímulos del entorno. No suele tener asociado un
    mecanismo de aprendizaje, es decir, sus pesos se mantienen
    constantes, y su misión simplemente es la de
    distribuir dicha entrada al resto de los elementos de proceso
    que constituyen la red.

  • Capa de salida: Es la capa sobre la que se forman
    las salidas de la red.

  • Capas ocultas: Son las demás capas que no son
    ni de entrada ni de salida.

En la actualidad existen muchos modelos de RNA, y cada
año los investigadores crean nuevas arquitecturas,
paradigmas y algoritmos de aprendizaje. A fin de tener una
visión del panorama actual de las RNA, en el anexo # 3 se
presenta una síntesis de las clasificaciones que
proporcionan algunos autores [52, 53, 54, 55]. En este anexo se
han incluido algunos tipos de redes que por su relevancia
histórica o por su uso muy extendido se han convertido en
punto de referencia para el mundo científico y
técnico. Se han quedado fuera de este resumen varios tipos
de RNA que por su ámbito de aplicación o novedad no
resultan representativas del estado del arte.

1.3.1 Redes Neuronales Artificiales de
Kohonen.

Este tipo de redes, generalmente tienen más de
dos capas, algunas de cuyas unidades compiten entre sí por
el "privilegio" de clasificar la entrada. En las llamadas RNA de
Kohonen (un subconjunto de las de filtro competitivo),
esto se plasma como conexiones inhibitorias intracapa
("inhibición lateral"), de modo que la activación
de una unidad tiende a producir un descenso en la actividad de
sus "competidoras" de capa.

La arquitectura de las RNA de Kohonen se caracteriza
por:

  • tres o más capas.

  • patrón de conexión total entre la capa
    de entrada y la capa oculta.

  • conexiones inhibitorias laterales en la capa
    oculta.

Es indispensable que al construir una RNA de este tipo
se garantice que el vector de pesos de cada unidad de la capa
oculta sea diferente a los demás.

Considerando el caso de una RNA de tres capas, de flujo
directo, con la capa intermedia (competitiva) interconectada con
pesos fijos, de modo que cada unidad envía señales
de excitación a sus "vecinas" e inhibición lateral
a las demás unidades ("competidoras") de la capa. La capa
de entrada envía una copia completa del vector de entrada
a cada unidad de la capa competitiva. Al presentar una entrada a
la red, ésta es transmitida a todas las unidades de la
capa oculta. Algunas unidades de esta capa se activarán, y
enviarán esa activación/inhibición a sus
vecinas/competidoras. Eventualmente, tras una serie de
fluctuaciones, una unidad será la más activada de
todas, y todas las demás (salvo sus vecinas)
quedarán inhibidas. Sólo las unidades activadas
enviarán señales a la capa de salida. En este
momento es donde se aplica la regla de aprendizaje.

Sólo las unidades ganadoras ajustan sus pesos, es
decir, la regla de aprendizaje actúa sólo sobre las
unidades que hayan llegado a rebasar un cierto nivel de
activación. La regla de aprendizaje aproxima un poco
más el vector de pesos de la unidad al vector de entrada
para el cual la unidad ha resultado ganadora. Es decir, hace que
esa unidad, que ya ha resultado ser compatible a ese tipo de
entrada, lo sea todavía un poco más. De este modo,
si aparece posteriormente alguna entrada semejante a esta, es
más probable que la unidad ganadora vuelva a ser la misma.
Así, cada unidad se va paulatinamente "especializando" en
un tipo de vector de entrada.

Cuando se introduce una nueva entrada, y hay otra unidad
ganadora, el proceso se repite para otra posición
vectorial. Finalmente, los vectores de pesos de cada unidad de la
capa oculta, que inicialmente seguían orientaciones
aleatorias, se concentran en un cierto número de
orientaciones concretas que representan patrones que aparecen
frecuentemente en la entrada. Por lo tanto, la
distribución de los vectores de pesos modela las
regularidades de la entrada. Es decir, las unidades de la capa
oculta se van especializando progresivamente en ciertas entradas,
respondiendo selectivamente a patrones invariantes que estaban
implícitos en el conjunto de entrada, los cuales no eran
conocidos. La red en ningún momento es informada sobre las
regularidades que tiene que detectar, sino que se dirige
espontáneamente hacia ellas (no se tiene por qué
saber que regularidades se están buscando).

Una de las redes clasificadas dentro de este
epígrafe es la RNA basada en el algoritmo de aprendizaje
Learning Vector Quantization (LVQ) que ha sido
utilizada con éxito en muchas aplicaciones,
fundamentalmente en análisis de imágenes,
reconocimiento de patrones y problemas de
clasificación.

El algoritmo LVQ está especialmente
diseñado para resolver problemas de clasificación
de patrones. Se trata de clasificar un conjunto de patrones de
entrada en un número finito de clases de manera que cada
clase sea representada o caracterizada por un vector prototipo.
Para ello, el modelo LVQ utiliza un aprendizaje
supervisado que permite organizar las unidades de entrenamiento
en el espacio de salida mediante regiones que actuarán
como clasificadores de los datos de entrada. Se trata de un
aprendizaje competitivo que permite reforzar positivamente
("premiando") o negativamente ("castigando") los pesos de las
conexiones dependiendo de que la clasificación haya sido
realizada correcta o incorrectamente.

Monografias.com

Otra de las RNA dentro de este epígrafe son las
conocidas como Mapas auto-organizados (Self-Organizing
Map
), las cuales tratan de establecer una correspondencia
entre los datos de entrada y un espacio bidimensional de salida,
de modo que ante datos con características comunes se
activen neuronas situadas en zonas próximas de la capa de
salida. Cada neurona de la capa de entrada está conectada
con cada una de las neuronas de la capa de salida mediante pesos.
Las interacciones laterales siguen existiendo en relación
con la distancia que se toma como una zona bidimensional
alrededor de la neurona (ver anexo # 4).

Monografias.com

Se supone que la inhibición lateral produce una
distribución gaussiana centrada en la neurona
ganadora, así, en lugar de calcular recursivamente la
actividad de cada neurona, simplemente se encuentra la ganadora
suponiendo que las demás tienen una actividad proporcional
a la función gaussiana evaluada en la distancia
entre dicha neurona y la ganadora:

Monografias.com

La gaussiana comienza por cubrir casi todo el
espacio y se reduce de manera progresiva hasta ser casi
exclusivamente la ganadora. Para las cercanas a la ganadora, las
actualizaciones se reducen exponencialmente según la
distancia a la gaussiana.

Los Mapas Auto-organizados son diferentes a los
demás modelos de RNA descritos en este epígrafe
debido a su capacidad para trasladar la estructura del espacio de
entrada al espacio de salida, porque crea un espacio de salida
discreto donde se conservan las relaciones topológicas
entre los elementos del espacio de entrada, lo que quiere decir
que la distribución de los datos de entrada se conserva
aproximadamente. La conservación de los entornos es
importante para aplicaciones que requieren la conservación
de una métrica en el espacio de entrada y este modelo lo
hace de una manera no supervisada. La regla de competencia lleva
los vectores de pesos hacia la entrada actual; como la ganadora y
sus vecinas se actualizan en cada paso, todas ellas se mueven
hacia la misma posición, aunque las vecinas lo hacen
más lentamente a medida que la distancia aumenta. Esto
organiza las neuronas de modo que las que están en un
entorno comparten la representación de la misma
área del espacio de entrada, independientemente de su
localización inicial.

1.3.2 Red Neuronal Artificial: Feedforward
Backpropagation.

Las RNA Feedforward son aquellas en las que el
ajuste de los pesos durante la fase de entrenamiento se realiza
invirtiendo la dirección del flujo de activación en
la red mediante una regla llamada "retropropagación"
(backpropagation), que ajusta cada peso para hacer
mínimo el error de las unidades de salida.

Las redes en las que se puede aplicar esta regla se
caracterizan por lo siguiente:

  • Tienen dos o más capas.

  • Son de "flujo directo", es decir, el patrón
    de conectividad de las unidades no presenta recurrencia o
    retroalimentación.

  • Utilizan una función de activación
    contínuas y creciente. La más habitual es la
    función sigmoide calculada a partir de la
    habitual función aditiva ponderada.

De este modo, lo que realiza una RNA
Feedforward es siempre una proyección
("mapping") del vector de entrada en el de salida. Las
redes con estas características han demostrado ser capaces
de realizar diversos tipos de proyecciones (función
entrada-salida) con gran fiabilidad.

La regla backpropagation es la principal regla
de aprendizaje de las RNA actuales, permite que ante cada ejemplo
la red compare su salida con la salida "correcta", y reajuste los
pesos de sus conexiones en función del resultado de dicha
comparación.

El algoritmo de aprendizaje de retropropagación
del error (backpropagation) (conocido como la regla
delta generalizada) es una aplicación del
conocido método del gradiente decreciente. Esta regla de
aprendizaje se debe a Werbos (1974), Rumelhart (1985) y Parker
(1989), entre otros autores.

Debido a ciertas consideraciones probabilísticas
y, ante todo, a su facilidad de cálculo, establece como
función objetivo minimizar el error
cuadrático:

Monografias.com

Una variación muy interesante del algoritmo
backpropagation es la que incluye un término de
regularización que introduce la condición adicional
de minimizar los valores absolutos de los pesos. El
añadido de este término conduce a la variante
conocida como "Weight Decay", que logra minimizar el
efecto del sobreentrenamiento.

En este caso, la expresión para la función
de error sería:

Monografias.com

Ventajas del algoritmo
Backpropagation.

  • Posee la capacidad de auto-adaptar los pesos de las
    neuronas de las capas intermedias para aprender la
    relación que existe entre un conjunto de patrones de
    entrada y sus salidas correspondientes.

  • Una vez en funcionamiento tiene la capacidad de
    generalización, y así, proveer salidas
    satisfactorias a entradas que el sistema nunca había
    procesado en la fase de entrenamiento.

Desventajas del algoritmo
Backpropagation.

  • Busca minimizar el error del sistema. Para ello se
    moverá por la superficie de la función de error
    dando pasos descendentes. Debido a este modo de aprendizaje,
    el sistema podría eventualmente quedar atrapado en un
    mínimo local y alcanzar una solución que no
    fuese óptima, es decir, con un error
    elevado.

  • Lentitud del aprendizaje.

  • Si la pendiente es escasa, el entrenamiento es muy
    lento.

  • Si la pendiente es nula, el algoritmo se
    detiene.

  • Red Neuronal Artificial:
    Probabilística.

El modelo LVQ es un precursor de los mapas
autoorganizados, y al igual que ellos puede verse como un tipo
especial de RNA. Este modelo tiene una primera capa competitiva y
una segunda lineal, donde el número de neuronas de la
primera es siempre mayor o igual que el número de neuronas
de la segunda. La capa competitiva aprende a clasificar los
vectores de entrada, mientras que la capa lineal transforma la
clasificación hecha por la primera capa en correspondencia
con las salidas definidas por el usuario. El algoritmo
LVQ está especialmente diseñado para
resolver problemas de clasificación de patrones y trata de
clasificar un conjunto de patrones de entrada en un número
finito de clases, de manera que cada clase sea representada o
caracterizada por un vector prototipo. Para ello, el modelo
LVQ utiliza un aprendizaje supervisado que permite
organizar las unidades de entrenamiento en el espacio de salida
mediante regiones que actuarán como clasificadores de los
datos de entrada. Se trata de un aprendizaje competitivo que
permite reforzar positivamente ("premiando") o negativamente
("castigando") los pesos de las conexiones, dependiendo de que la
clasificación haya sido realizada correcta o
incorrectamente.

1.3.4 Red Neuronal Artificial: Regresión
Generalizada.

El modelo neuronal de Regresión Generalizada fue
propuesto y desarrollado inicialmente por Specht (1991) y posee
la propiedad de no requerir ningún entrenamiento
iterativo, es decir, puede aproximar cualquier función
arbitraria entre vectores de entrada (inputs) y salida
(outputs), realizando la estimación de la
función directamente a partir de los datos de
entrenamiento. Este modelo descansa en la teoría de
regresión no lineal, siendo, en esencia, un método
para estimar la función de probabilidad conjunta de los
datos sólo a través del conjunto de entrenamiento,
mediante el estimador de Parzen (1962).

Su topología original posee cuatro capas: la
primera de ellas, representa el vector de entradas
(inputs); la segunda, denominada pattern layer,
es igual al número de observaciones del vector de entrada
y el valor de la neurona en esta capa no visible se obtiene al
aplicar la función de transferencia o
activación,

Monografias.com

Capítulo 2:

Segmentación automática de
lesiones patológicas en imágenes de
mamografías

El cáncer de mamas está considerado una de
las principales causas de muerte en mujeres a escala mundial.
Según la Organización Mundial de la Salud (OMS)
[1], se estima que más de 385 000 mujeres en todo el mundo
mueren producto a esta enfermedad cada año. El
diagnóstico y tratamiento en estadíos primarios de
esta enfermedad puede incrementar significativamente la
posibilidad de supervivencia de estas pacientes, ciertos estudios
han probado que la realización de mamografías
periódicas a mujeres de más de 45 años puede
reducir la tasa de mortalidad por esta causa entre el 30 y el 50%
[56].

La mamografía de rayos X es la principal
técnica usada por especialistas médicos en la
detección y diagnóstico del cáncer de mamas.
Esta técnica ha resultado satisfactoria en la
detección temprana de esta patología reduciendo la
mortalidad de las pacientes en un 25% [2]. La
interpretación de Imágenes de Mamografías
(IM) es un proceso que requiere destreza y experiencia por parte
de los especialistas médicos.

En la actualidad para dar solución a esta
problemática se trabaja por desarrollar herramientas
informáticas cada vez más sofisticadas que permitan
brindar una "segunda opinión" en el diagnóstico
médico de esta enfermedad, apoyadas en la
combinación eficiente de técnicas de PDI,
Reconocimiento de Patrones (RP) e IA. La aplicación de
estas técnicas facilita la automatización y la
obtención de resultados más exactos, así
como el aumento de la eficiencia del personal médico y
garantiza la reproducibilidad en el análisis de las
imágenes.

En nuestro país se ha reportado hasta el momento
tres prototipos de software que se describen a
continuación:

  • 1. Yosvany López y Andra Novoa en el
    2007 realizaron un prototipo que posibilita la
    clasificación semiautomática (el proceso de
    segmentación se hace de forma manual), basado en la
    combinación de técnicas de PDI, RP e IA,
    permitiendo de esta forma diagnosticar diferentes tipos de
    anormalidades, ya fueren malignas o benignas, sin incluir los
    tejidos normales. El resultado de este trabajo se
    validó mediante la red neuronal Feedforward
    Backpropagation
    , con la cual obtuvieron una
    clasificación del 97.5% con un vector de
    características conformado por 5 rasgos
    morfométricos basados en la forma de la
    imagen.

  • 2. En el propio 2007 Yosvany López
    realiza una corroboración del trabajo anteriormente
    mencionado con dos tipos de redes: la Feedforward
    Backpropagation y la Learning Vector Quantization

    utilizando validación cruzada e incorporando los
    tejidos normales, para cuyas redes obtuvo un 97% y 92.5% de
    clasificación respectivamente.

  • 3. En el 2009 Andra Novoa propone una mejora al
    método incorporando la segmentación
    automática, basada en los niveles de intensidad de la
    imagen y partiendo de una región de interés
    definida por el especialista. Este método tiene el
    inconveniente de que en imágenes cuya intensidad sea
    relativamente homogénea, es decir, que el fondo de la
    imagen y el objeto no sean fácilmente identificable el
    método no funciona de manera eficiente.

  • 4. Por otro lado en el año 2010,
    Alejandro Díaz [57] propone un método para
    clasificar de manera semiautomática lesiones
    patológicas en imágenes de mamografías
    utilizando para ello un vector características
    conformado por rasgos de tipo textura.

Independientemente de los logros obtenidos en el
área quedan aún retos por resolver.

2.1 Segmentación automática de lesiones
patológicas en imágenes de mamografías.
Validación mediante el empleo de redes neuronales
artificiales.

La clasificación de las diferentes anormalidades
presentes en las IM constituye un paso de suma importancia porque
ofrece una "segunda opinión" al personal médico
especializado y el proceso de segmentación es el paso
intermedio que hace posible una buena clasificación de las
mismas. En el caso de este trabajo se propone un nuevo
método de diagnóstico constituido por cuatro pasos
que concluye con la clasificación del objeto analizado
mediante el empleo de RNA, en el caso de nuestro trabajo la
Feedfordward Backpropagation, la Learning Vector
Quantization
y la Red Probabilística. Estos pasos
son:

  • Selección de la imagen a analizar
    (ROI).

  • Preprocesamiento.

  • Segmentación.

  • Extracción del vector de
    características.

  • Clasificación de la imagen.

La figura 2.0 muestra el diagrama del método
propuesto para la segmentación automática de las
diferentes clases de anormalidades presentes en las
IM.

Monografias.com

Fig.2.0 Diagrama del método
propuesto

Es válido aclarar que aunque el principal
objetivo de este trabajo no es hacer una clasificación de
las diferentes clases de anormalidades, esto si ayudaría a
corroborar el resultado de la segmentación, es decir, si
el mismo es o no correcto. En [58] se propuso un método
similar donde se demostró que la clasificación era
buena para un vector de características conformado por
cinco rasgos morfométricos, dichos rasgos son los que se
utilizan para el caso de este trabajo.

2.1.2 Preprocesamiento.

El mejoramiento de las imágenes consiste en la
ampliación de los detalles de interés de los
objetos presentes en las mismas. Para lograr el mejoramiento de
las IM en el caso de este trabajo se han aplicado diversas
técnicas y métodos matemáticos, tales como:
filtros digitales, mejoramiento, umbralización /
segmentación, entre otras que serán explicadas a
continuación.

2.1.2.1 Filtros digitales.

Los filtros digitales son utilizados debido a su efecto
de alisamiento, su poder para la detección de bordes y la
agudización del contraste. En este trabajo se han incluido
diferentes tipos de filtros, entre los cuales se encuentran: la
Mediana, el Gaussiano, el Promedio, el Unsharp masking;
los operadores de Sobel, Prewitt, Laplaciano y
Canny; entre otros que ya fueron explicados con
anterioridad en el Capítulo 1. Los filtros utilizados han
permitido resaltar con mayor o menor claridad una u otra
anormalidad presente en las IM.

El filtro de la Mediana se ha empleado para reducir el
ruido y preservar los bordes de las anormalidades en las IM (ver
epígrafe 1.1.2.1).

El filtro Promedio calcula la media de los
píxeles en el entorno de un punto central (ventana) y su
efecto depende del valor de Monografias.comdonde Monografias.comes el valor del tamaño de la ventana
(ver epígrafe 1.1.2.1). Su aplicación a una
ROI puede ser observado en la figura 2.1.

Monografias.com

El filtro Gaussiano utiliza la función de Gauss
bidimensional para calcular los coeficientes de una ventana como
una aproximación discreta; y su ecuación
está dada en el epígrafe 1.1.2.1. Aunque este tipo
de filtro en cuanto al alisamiento tiene el problema del
difuminado de los bordes, no es tan pronunciado como en el caso
de otros algoritmos. La figura 2.2 muestra el resultado de la
aplicación de este filtro a una ROI donde se
encuentran varias calcificaciones.

Monografias.com

Los filtros anteriores son en cierta medida extremos, ya
que enfatizan los componentes de baja frecuencia o alta
frecuencia. Un filtro mezcla de ambos comportamientos es el
conocido en la literatura como Unsharp masking, debido a
que opera tanto sobre los componentes de bajas frecuencias como
sobre los componentes de altas frecuencias.

Monografias.com

En la siguiente figura 2.3 se observa la ROI
resultante luego de aplicar un filtrado Unsharp
masking
.

Monografias.com

Existen varios tipos de filtros enfocados a la
detección de bordes en una imagen. Un concepto de
detección de bordes puede encontrarse en el
epígrafe 1.1.2.2. En el caso de este trabajo se utiliza el
filtro de la mediana local descrito en [59].

La aplicación de filtros que enfaticen el borde
del objeto muestra sus mejores resultados en aquellas
anormalidades donde se encuentre presente algún tipo de
masa, debido a que las mismas son aglomeraciones de mayor
tamaño que las calcificaciones, y su forma que en
ocasiones puede llegar a ser un polígono muy irregular
será mejor delimitable que en el caso de las
calcificaciones. El filtro de la Mediana local tiende a preservar
los bordes de una imagen, mejorando en cierta medida la imagen
original. Su formulación matemática es la
siguiente:

Monografias.com

La figura 2.4 muestra el procesamiento de una
ROI que contiene una masa circunscrita bien definida
aplicando este tipo de filtro.

Monografias.com

2.1.2.2 Mejoramiento.

El mejoramiento de las IM en este trabajo constituye un
paso de vital importancia, pues contribuye a eliminar en gran
medida el ruido de las imágenes producto a la captura o
formación de las mismas, facilitando al personal
médico especializado brindar un criterio final con un
mayor grado de certeza.

El método propuesto incluye tres técnicas
de mejoramiento: ecualización del histograma, ajuste de la
imagen y ecualización del histograma de contraste
adaptativo (CLAHE).

Kristin y otros [2] demostraron que la
ecualización de las imágenes representa un
importante paso en la detección automática de
microcalcificaciones, proponiendo un esquema para la
supresión del ruido en IM, con resultados superiores a los
obtenidos por otros autores.

En este caso la ecualización del histograma ha
mostrado resultados satisfactorios, minimizando el ruido de las
IM (ver epígrafe 1.1.1); pues esta técnica hace un
ajuste de los niveles de intensidad de la imagen bajo estudio
como muestra la figura 2.5.

Monografias.com

2.1.2.3 Técnicas de Umbralización.

En este trabajo, se emplea el concepto de
umbralización para hacer referencia a la conversión
de una imagen con varios niveles de grises en una imagen binaria
(blanco y negro), que contenga información esencial
relativa al número, posición, tamaño y forma
de los objetos pertenecientes a la imagen. Aquí, se
proponen tres métodos de umbralización (ver
epígrafe 1.2.2): umbralización adaptativa,
umbralización manual a partir del histograma de frecuencia
de intensidades y umbralización basada en técnicas
fuzzy. La figura 2.6 muestra la segmentación de
una masa circunscrita bien definida de forma manual basado en la
información del histograma de frecuencias de intensidades
donde se puede corroborar que la misma muestra un resultado
favorable.

Monografias.com

2.1.2.4 Segmentación.

Luego de seleccionar la ROI se realiza la
segmentación de la anormalidad bajo estudio. El proceso de
segmentación está basado en el uso de modelos
deformables (snake y live wire) (ver figura
2.7) y puede realizarse de forma automática.

El snake necesita para su funcionamiento una
inicialización que consiste en marcar varios puntos que
pertenezcan o se encuentren cercanos al borde de los objetos, de
forma tal que lo circunscriba y posteriormente se produce un
proceso de deformación que permite una mejor
aproximación al borde real de los objetos
(segmentación final).

El live wire (o cortes inteligentes) es una
técnica interactiva de seguimiento de bordes que comparte
algunas similaridades con los snakes. El mismo realiza
una aproximación al borde real del objeto mediante una
mínima interacción del usuario. El
algoritmo a seguir para segmentar una imagen con live
wire
consiste en hacer un seguimiento del borde del objeto
bajo estudio, sembrando varios puntos semillas cada vez que
ocurre un cambio morfológico y de manera automática
se va generando una curva que circunscribe al objeto hasta que
finaliza el proceso y ocurre la segmentación
final.

Una mayor profundización en la definición
de la técnica live wire, con ejemplos de
aplicación en imágenes médicas se presenta
en [51 ,59, 60, 61].

Segmentación Automática.

La segmentación automática ha sido motivo
de interés para varios autores debido al impacto que tiene
la segmentación dentro del proceso de
clasificación. Por la importancia que representa la
segmentación del objeto de interés para el proceso
de clasificación, existen varios autores que han
incursionado en el tema, llegando a resultados favorables.A
continuación se describen algunas de las vertientes que
existen hasta el momento.

La densidad en la imagen de mamografía ha sido
calificada como un fuerte factor de riesgo para el cáncer
de mamas [62]. En la mayoría de los métodos se
concluye con una segmentación que parte de la
selección de un umbral por parte del usuario,
acción que lleva tiempo y es subjetiva.

El análisis de textura utilizando una matriz de
co-ocurrencia parece ser útil en la diferenciación
de los tres componentes citológico de fibroadenoma [63]
(grupos monocapa de células, fragmentos de estroma y de
fondo con núcleos desnudos). Estos resultados
podrían ser utilizados en el desarrollo de algoritmos para
segmentación de la imagen y diagnóstico
automatizado, pero necesitan ser confirmados en estudios
contundentes.

Existen numerosos trabajos de investigación en el
área de la segmentación, de los cuales unos pocos
han llegado a un estado en el que puede ser aplicado con la
intervención manual interactivo (por lo general en
aplicación de imágenes médicas) o totalmente
automática. La estructura de anidación que Witkin
describe es, sin embargo, específica para las
señales de una sola dimensión y no es trivial la
aplicación a las imágenes de dimensiones
superiores. Esta idea ha inspirado a otros autores a investigar
el paso de esquemas de grande escala a pequeña escala para
la segmentación de imágenes. Koenderink propone el
estudio de cómo la intensidad de iso-contornos evolucionan
en escalas y este enfoque se investigó en mayor detalle
por Lifshitz y Pizer.

Lamentablemente, sin embargo, la intensidad de las
características de la imagen cambia con las escalas, lo
que implica que es difícil de rastrear las
características de la imagen de gran escala a
pequeña escala utilizando la información de
iso-intensidad.

Lindeberg estudió el problema de vincular los
extremos locales y los puntos semillas con las escalas, y propuso
una representación de la imagen primitiva llamada el
boceto a escala original que hace explícitas las
relaciones entre las estructuras a escalas diferentes.

Gauch y Pizer estudiaron el problema complementario de
las crestas y los valles en múltiples escalas y
desarrollaron una herramienta para la segmentación
interactiva de imágenes basadas en escalas
múltiples (watershed).

Shuk-Me1 Lai et al en [68] proponen un
método para la detección automática de masas
circunscritas bien definidas, D. Brzakovic et al en [64]
proponen un método para la segmentación
automática de lesiones patológicas conformado por
tres pasos:

  • 1. Separación del objeto del
    fondo.

  • 2. Identificación de las regiones
    homogéneas.

  • 3. Segmentación para separar las
    regiones identificadas del fondo.

Es válido aclarar que aunque el método es
muy efectivo va dirigido fundamentalmente a la
segmentación de masas.

Joachim Dengler et al en [13] propone un
método para la segmentación automática de
microcalcificaciones empleando el filtro de
Sobel.

Luis Manuel Rey Junquera et al de la Escuela
Universitaria Politécnica de Mataró, propone un
método basado en la plantación de semillas para la
segmentación de masas.

Novoa en el 2009 propone un método de
segmentación automática para diferentes lesiones
patológicas, pero tiene el inconveniente de que en
imágenes cuya intensidad sea relativamente
homogénea, es decir, que el fondo de la imagen y el objeto
no sean fácilmente identificable el método no
funciona de manera eficiente.

Como se puede apreciar no existe un método que
sea capaz de segmentar de forma automática cualquier tipo
de anormalidad. En el caso de este trabajo se propone un nuevo
método de segmentación que es capaz de resolver la
problemática anterior. El algoritmo se describe a
continuación.

  • a. Selección del píxel de mayor
    intensidad en la ROI.

Para seleccionar cual es la mayor intensidad presente en
la ROI se hace un recorrido píxel a píxel,
comenzando en la parte inferior y de izquierda a derecha. El
siguiente pseudocódigo indica como se debe
proceder.

Inicializar Mayor en -1.

Desde 1 hasta mayorX

Desde 1 hasta mayorY

Si imagen(x,y) > Mayor

Hacer Mayor = imagen(x,y)

Donde mayorX y mayorY contiene el valor con la cantidad
de abscisas y de ordenadas.

Imagen corresponde a la imagen que contiene la
anormalidad analizada.

  • b. Selección de los posibles puntos que
    conforman la anormalidad.

La selección de los posibles puntos que conforman
la anormalidad se hace mediante un recorrido de la misma
píxel a píxel y se incluye en el conjunto
resultante todos aquellos píxeles cuyo valor de intensidad
cumpla con la siguiente condición:

Monografias.com

donde CP es el conjunto de puntos que cumplan
con la condición anteriormente planteada, además
guarda las coordenadas del píxel y no el valor de
intensidad de ese píxel en la imagen, y el umbral es la
diferencia que existe entre el píxel de mayor intensidad
calculado en el paso "a" y la moda (valor que más
se repite) en la porción de la imagen analizada. Si el
valor de la moda y el valor del píxel de mayor intensidad
coinciden, entonces al umbral se le concede un valor constante de
5. Y si difieren en más de 70 se le concede un
valor de 32.

intensidad (x,y) es el valor de la
intensidad del píxel que ocupa la posición
(x,y).

Para determinar cuales puntos pertenecen al objeto y
además son de interés, se considerarán como
puntos válidos todos aquellos cuya distancia al borde del
objeto sea menor que el radio que conforma la anormalidad. Dicho
matemáticamente sería la siguiente
expresión:

Monografias.com

es el conjunto de puntos determinado en b,
O es el borde del objeto que coincide con el borde de la
circunferencia que circunscribe a la anormalidad cuyo radio se
expresa como la media del agrupamiento de los píxeles
seleccionados en CP, y el radio es la mediana del
conjunto de diferencias entre cada uno de los puntos
seleccionados en el inciso b.

  • d. Selección de los puntos que
    pertenecen al contorno.

A partir del conjunto de puntos que se seleccionan en el
paso c, se procede al cálculo de los puntos que
pertenecen al contorno. La selección se hace de la
siguiente forma:

Se recorre el conjunto de puntos y se escoge para cada
valor de la abscisa el que tenga menor y mayor valor de la
ordenada, en caso de que exista uno solo se agrega al conjunto.
Una vez que se hayan seleccionado los puntos que pertenecen al
contorno se organizan de forma tal que quede una curva que sea
capaz de circunscribirlos, esta organización se describe a
continuación.

  • Se divide el conjunto en dos partes
    iguales.

  • Se organiza en dos subconjuntos que comenzando a
    partir del último elemento van incrementándose
    de forma alterna (uno comienza a partir del último
    elemento y se denomina subconjunto1 y el otro a partir del
    penúltimo y se denomina subconjunto 2).

  • El conjunto final resultante es la unión de
    los 2 subconjuntos anteriores; si la cantidad de elementos
    (N) es impar entonces el conjunto final sería
    la unión del subconjunto 1 con el 2 organizado de
    atrás hacia adelante, si N es par se unen de
    forma viceversa.

N se refiere a la cantidad de elementos del
conjunto calculado en el paso c.

  • e. Multiplicar la imagen por la máscara
    correspondiente para obtener la imagen modificada y realizar
    la interpolación de los puntos del
    contorno.

A partir de los puntos obtenidos en el paso d,
se realiza la interpolación correspondiente utilizando la
misma metodología planteada en [65].

Una vez que se hayan aplicado cualquiera de las tres
variantes de segmentación a una determinada ROI;
del contorno final de la anormalidad se calculan un conjunto de
rasgos morfométricos o características (vector de
características), que pueden ser adicionadas o no al
conjunto de entrenamiento del clasificador.

Monografias.com

2.2 Extracción del vector de
características.

Las calcificaciones y las masas tienen
características específicas que las diferencian,
así como también existen varias categorías
de masas. Las calcificaciones son pequeños puntos
brillantes que resaltan dentro de la imagen, mientras que las
masas son aglomeraciones de mayor tamaño que pueden formar
desde un círculo hasta cualquier otro tipo de figura
geométrica, llegando a tener una forma irregular. En este
caso, Michael y otros [8] realizaron un estudio enfocado a
identificar un conjunto de rasgos clínicos robustos para
la evaluación de tumores en las mamas; además, los
autores definen la forma morfológica de los tumores y
demuestran que los tumores con mayor número de
ramificaciones tienen mayores probabilidades de estar asociados a
anormalidades malignas. Karsten [66] propuso un conjunto de
posibles características a extraer con el objetivo de
clasificar las diferentes anormalidades presentes en el
cáncer de mamas.

Los rasgos utilizados para la clasificación de
las diferentes anormalidades bajo estudio son: área,
promedio de la intensidad de los píxeles, aspereza, forma
y estiramiento de la anormalidad, planteados en [58].

La formulación matemática empleada para el
cálculo del vector de características formado por
los rasgos anteriormente mencionados es la siguiente:

Monografias.com

2.2.1 Clasificadores basados en Redes Neuronales
Artificiales.

En la literatura se han reportado varios métodos
que emplean los clasificadores de RNA para resolver problemas en
la clasificación de las diferentes anormalidades presentes
en las IM, se puede mencionar: métodos para la
detección de masas usando modelos de RNA [9];
métodos que combinan RNA y transformadas Wavelets
para la detección de microcalcificaciones [60], algoritmos
para identificar la malignidad en nódulos combinando
rasgos sonográficos y RNA [15], técnicas de
aprendizaje contextual basadas en RNA [10], algoritmos
genéticos combinados con RNA para la selección de
rasgos empleados en la clasificación de
microcalcificaciones [67] y métodos para la
discriminación y clasificación de mamogramas en
benignos, malignos y normales, usando análisis de
componentes independientes y RNA [68].

Las RNA atendiendo al tipo de estrategia de aprendizaje
pueden ser clasificadas en dos grandes grupos: redes supervisadas
y no supervisadas. Las redes supervisadas son aquellas donde a
cada elemento del conjunto de entrada le corresponde un elemento
en el conjunto de salida, mientras que en las de aprendizaje no
supervisado no se conocen los elementos del conjunto de salida.
La tabla 2.8 muestra la clasificación de los diferentes
modelos de RNA utilizados en este trabajo.

Monografias.com

Tabla 2.8 Clasificación de las
RNA utilizadas según modo de aprendizaje.

2.2.1.1 Feedforward Backpropagation.

El modelo FFBP diseñado en nuestro
trabajo está constituido por tres capas: dos capas ocultas
con 14 y 8 neuronas respectivamente y una capa de salida con 13
neuronas. Cada neurona de la capa de salida representa una clase
de anormalidad (calcificaciones, masas circunscritas bien
definidas, masas espiculadas, masas enfermas definidas,
distorsiones arquitecturales y asimetrías) benigna o
maligna; incluyendo las imágenes normales. La
función de transferencia empleada en todas las capas fue
el logaritmo del signo y el gradiente descendente como
función de entrenamiento. Los parámetros de
entrenamiento fueron: 250 000 iteraciones y 0.015 como meta. Un
diseño en MATLAB de esta RNA puede ser observado
en la figura 2.9.

Monografias.com

2.2.1.2 Learning Vector Quantization.

La red LVQ diseñada en nuestro trabajo
está constituida por una capa competitiva de 26 neuronas y
13 neuronas en la capa de salida. Cada neurona de la capa de
salida representa una clase de anormalidad (calcificaciones,
masas circunscritas bien definidas, masas espiculadas, masas
enfermas definidas, distorsiones arquitecturales y
asimetrías) benigna o maligna, incluyendo las
imágenes normales. Los porcientos de las clases de salida
fueron: 0.05 para calcificaciones y distorsiones arquitecturales
(malignas y benignas), masas circunscritas bien definidas
benignas e imágenes normales; el porciento del resto de
las clases fue 0.10. Los parámetros de entrenamiento
empleados en esta RNA fueron 250 000 iteraciones y 0.015 como
meta. Un diseño en MATLAB de esta red puede ser
observado en la figura 2.10.

Monografias.com

2.2.1.3 Red Probabilística.

Las Redes Neuronales Probabilísticas proporcionan
una representación gráfica para un conjunto de
variables aleatorias y para las relaciones existentes entre
ellas. La estructura de este tipo de red permite especificar la
función de probabilidad conjunta de estas variables como
el producto de funciones de probabilidad condicionadas, por lo
general, más sencillas.

Monografias.com

Este modelo de RNA puede emplearse para calcular una
probabilidad de interés usando métodos para el
proceso de inferencia exacta y aproximada [67, 68,
69].

El proceso de inferencia exacta en redes bayesianas es
Monografias.comnon-polinomial-hard) [7, 70]; este
problema se debe a la presencia de ciclos no dirigidos en la red.
Los algoritmos se consideran manejables cuando el tiempo
necesario para ejecutar el algoritmo es polinomial en el
número de parámetros, es decir, el número de
nodos en la red [71].

La figura 2.11 muestra el diseño de la red
probabilística utilizada en nuestro trabajo.

Monografias.com

2.3 Resultados.

El método propuesto fue evaluado en la base de
datos MiniMIAS. Esta base de datos contiene 322
mamogramas con una resolución de 1024 x 1024
píxeles y el tamaño de cada píxel es igual a
200 micras. Se seleccionaron de manera aleatoria un conjunto de
100 imágenes representativas de diversas clases de
anormalidades: calcificaciones, masas circunscritas bien
definidas, masas espiculadas, masas enfermas definidas,
distorsiones arquitecturales y asimetrías.

La siguiente figura 2.12 ilustra la concordancia de la
segmentación mediante el método propuesto y la
segmentación manual usando el livewire, en
imágenes cuya ROI está bien
definida.

Monografias.com

Como se puede observar los resultados obtenidos mediante
la segmentación automática se corresponden a los
logrados de forma semiautomática, aunque es bueno
señalar que el especialista tiene la opción de
rectificar la segmentación en caso de que no lo convenza
el resultado final mediante las técnicas de
snakes y livewire.

En [58] se demostró la validez de un
método similar, donde los clasificadores neuronales
FFBP y LVQ mostraron un rango de
clasificación de 97.5% y 72.5% respectivamente.

En este trabajo se utilizan tres tipos de redes para
medir cuan exacto es el nuevo método de
segmentación propuesto (FFBP, LVQ y la red
Probabilística), donde para cada modelo de red y empleando
los mismos vectores de simulación las redes mostraron
resultados muy similares.

Los modelos de RNA validados: FFBP y LVQ fueron
entrenados 10 veces, en cada ocasión a partir de una
matriz formada por 90 vectores de características que
representan los rasgos morfométricos seleccionados
(área, promedio de las intensidades de los píxeles,
aspereza, forma y estiramiento de la anormalidad); en el caso de
la red Probabilística no se realizó el
entrenamiento pues la misma calcula el vector de salida a partir
de la función de probabilidad definida en el Teorema de
Bayes. El conjunto de simulación estuvo conformado por 100
vectores de características que representan los rasgos
morfométricos anteriormente expuestos y que se
corresponden con el mismo vector característica utilizado
en [58].

Los resultados de la clasificación son expresados
en términos de tres parámetros:
Verdaderos-Positivos (VP), Falsos-Positivos
(FP) y Falsos-Negativos (FN). Un VP es
obtenido cuando una anormalidad es clasificada en la clase
correcta. Si una anormalidad de clase benigna es clasificada como
una clase maligna se considera que se está en presencia de
un FP y si una anormalidad de clase maligna es
clasificada en una clase benigna se considera que se está
en presencia de un FN.

La tabla 2.13 resume los resultados obtenidos en la
aplicación de los tres modelos de RNA (FFBP, LVQ y
Probabilística) para las 100 imágenes que conforman
el conjunto de datos. En el modelo FFBP, para los 100 vectores
del conjunto de simulación se obtuvo una
clasificación del 94%; en el caso del modelo LVQ un 80.0%,
mientras que en el modelo probabilístico se obtuvo un 68.0
% de clasificación.

Monografias.com

Las anormalidades que mostraron mayor igualdad en los
tres modelos de redes neuronales fueron las masas circunscritas
bien definidas y los tejidos normales, obteniéndose los
mejores resultados con la evaluación del primer
clasificador.

Además se puede decir que en el caso de esta
investigación se obtienen buenos resultados en la
clasificación, pues investigaciones anteriores sin incluir
tejidos normales el porciento de clasificación es del
97.5% y una vez incluidos estos del 92.0%.

Corroboración de los resultados mediante
algunas funciones de comparación.

En el proceso de evaluación de resultados, la
selección de la función de evaluación
también es muy importante. Algunos investigadores emplean
determinadas funciones, mientras que otros emplean otras, debido
a que no existe una determinación de cuál
función es la mejor o la peor para los diversos casos. No
obstante, García [72] propuso un ranking de las
principales funciones de evaluación supervisada. En este
trabajo se utilizarán algunas funciones determinadas por
las del ranking de [73] para medir los resultados obtenidos, las
mismas se detallan a continuación.

En nuestro trabajo se utilizan dos funciones que a
consideración del usuario reflejan el comportamiento del
algoritmo propuesto, además se realiza la
comparación con otros algoritmos reflejados en [74] para
la segmentación del objeto a analizar.

RDE

RDE (Relative Distance Error) es una
función de validación propuesta en [57] para
evaluar el error entre el resultado de algún algoritmo de
segmentación (E) y el valor deseado obtenido por
un especialista (T). Se consideran e1, e2,…, ene
como los píxeles de E y t1, t2,…, tnt como los
píxeles de T, siendo ne y nt la cantidad de
píxeles de E y T respectivamente. Para
determinar qué píxeles de E están
cerca de T, por cada píxel ei el método
RDE calcula las distancias dei y dti donde distance (ei,
tj) representa la distancia euclidiana entre ei y tj.

Monografias.com

C-Factor

C-Factor (Coverage Factor) es otra
función de validación propuesta en [75]. Se define
como una medida de discrepancia entre la región segmentada
por algún algoritmo de segmentación y la segmentada
por algún especialista. Se calcula mediante la
ecuación:

Monografias.com

Siendo TP, TN, FP y FN los elementos
correspondientes a la matriz de confusión que se muestra a
continuación:

Monografias.com

Figura 2.14 Matriz de
confusión.

Formada por los procesos Sm y Sa, a
los cuales es sometida una imagen f (x, y), de forma tal que
Sm clasifique de alguna forma, de manera manual por uno
o varios especialistas, y Sa por algún
método automatizado o semiautomatizado los píxeles
de f (x, y) según pertenezcan o no al objeto de
interés, entonces Sm ( f (x, y)) = z y Sa( f (x,
y)) = {0,1} donde cada píxel se puede clasificar para
formar dicha matriz de confusión. La diagonal principal de
esta matriz contiene la cantidad de píxeles clasificados
correctamente, mientras que la otra diagonal contiene la cantidad
de píxeles mal clasificados.

Dentro de las ventajas del método propuesto se
puede mencionar que encuentra un contorno cerrado y necesitan
pocos recursos computacionales.

A continuación se muestra la distribución
de los valores obtenidos con la función RDE. Para esta
función, los valores ideales son los mínimos, pues
indican que la distancia o diferencia entre el resultado del
algoritmo a evaluar y lo que se desea obtener es mínima
(función de dissimilaridad).

Monografias.com

Figura 2.15. Distribución de los
valores de la función RDE para alg (algoritmo propuesto),
alg_NV (algoritmo propuesto por Novoa), fcm (Fuzzy C-Means),
kmeans (C-Means) y ws (watershed).

A continuación se muestra un gráfico
similar, pero con la función C-Factor. Recuérdese
que los valores óptimos de esta función son los
más cercanos a cero. Dando como mejor resultado el
algoritmo propuesto, debido a que la distribución de los
valores de su resultado está más cercano a cero que
la del resto de los algoritmos.

Monografias.com

Figura 2.16. Distribución de los
valores de la función C-Factor para alg (algoritmo
propuesto), alg_NV (algoritmo propuesto por Novoa), fcm (Fuzzy
C-Means), kmeans (C-Means) y ws (watershed).

A los resultados obtenidos por estas funciones de
comparación se le aplicó el test estadístico
de Wilcoxon, para un par de muestras relacionadas con el
objetivo de garantizar realmente la existencia de diferencias
significativas entre los algoritmos antes mencionados. La prueba
estadística demostró que los algoritmos de
agrupamiento FCM y C-Means, para las funciones de
comparación utilizadas, no presentan diferencias
significativas, el test estadístico arrojó
también que para el algoritmo RDE, Watershed
obtuvo mejores resultados que FCM y C-Means, mientras que para
los resultados alcanzados con la función C-Factor,
Watershed obtuvo resultados peores.

Por otra parte, el test de Wilcoxon
demostró que los resultados del algoritmo propuesto para
todas las funciones de comparación utilizadas, presenta
diferencias significativas con todos los algoritmos de
segmentación comparados, arrojando la superioridad de este
con el resto. Como se observa en los experimentos realizados, en
comparación con los algoritmos estudiados el nuevo
algoritmo de segmentación propuesto mejora los resultados
a la hora de segmentar lesiones patológicas en
imágenes de mamografías.

Conclusiones

Al finalizar este trabajo se arribó a las
siguientes conclusiones:

  • Se integraron un conjunto de métodos que
    contribuyeron a la segmentación automática de
    lesiones patológicas en IM, basado en la
    combinación de técnicas de procesamiento
    digital de imágenes y mediante la información
    que contiene los niveles de intensidad de la imagen, que
    contribuye al análisis y/o diagnóstico de
    imágenes de mamografías, en centros
    hospitalarios y de investigación.

  • Un prototipo del método propuesto fue
    implementado en MATLAB (versión 7.0) para
    evaluar el desempeño del algoritmo, el cual fue
    validado exitosamente con el modelo de red neuronal FFBP
    (94.0 %), LVQ (80.0 %) y la red Probabilística (68.0
    %).

  • En la comparación de los algoritmos, en
    cuanto a su exactitud, se comprobó que el algoritmo
    desarrollado obtuvo mejores resultados que el resto. Este
    resultado se corroboró con la realización de la
    prueba estadística de Wilcoxon, donde se
    garantizó la existencia de diferencias significativas
    entre los algoritmos comparados.

Recomendaciones

Para el trabajo futuro se recomienda:

  • Probar el algoritmo con imágenes
    reales.

Referencias
Bibliográficas

1. On line: http://www.slideshare.net/naturaleza12eiris/epilepsia-ccmc.
Consultado : 10 de junio de 2011.

2. Kristin
J. McLoughlin, P.J.B., Nico Karssemeijer, Noise Equalization
for Detection of Microcalcification Clusters in Direct Digital
Mammogram Images
, in IEEE TRANSACTIONS ON MEDICAL
IMAGING
. 2004. p. 313 – 320.

3. On Line: http://www.cancerdemamas.net/
Consultado 12 de mayo de 2011.

4. Ayuda en línea. http://ayudacancer.wordpress.com/tipos-de-cancer/mama-general/.
Consultado: 20 de diciembre de 2011.

5. T. Cootes, A.H., C. Taylor. Medical Image
Interpretation Using Active Shape Models: Recent Advances.

in Information Processing in Medical Imaging. Kluwer Academic
Publishers
, Editor: Y. Bizais. 1995.

6. Mortensen, E.N., Barret W.A. Intelligent scissors
for image composition.
in Proceedings of Computer
Graphics (SIG-GRAPH'95
). 1995. Los Angeles, CA.

7. Cooper, G., Computational complexity of
probabilistic inference using Bayesian belief networks,
in
Artificial Intelligence. 1990. p. 393 – 405.

8. Michael Mavroforakis, H.G., Nikos Dimitropoulos,
Dionisis Cavouras, Sergios Theodoridis, Significance analysis
of qualitative mammographic features, using linear classifiers,
neural networks and support vector machines. European Journal of
Radiology,
2005: p. 1-10.

9. Shih-Chung B. Lo*, H.L., Yue Wang, Lisa Kinnard,
Matthew T. Freedman, A Multiple Circular Path Convolution
Neural Network System for Detection of Mammographic Masses,

in IEEE TRANSACTIONS ON MEDICAL IMAGING. 2002. p. 150 –
158.

10. Paul Sajda, C.S., John Pearson, Learning
Contextual Relationships in Mammograms Using a Hierarchical
Pyramid Neural Network,
in IEEE TRANSACTIONS ON MEDICAL
IMAGING.
2002. p. 239 – 250.

11. Rueckert D, Burger P, Forbat S. M, Mohiaddin R. D,
Yang G. Z, Automatic tracking of the aorta in cardiovascular
MR images using deformable models.
IEEE Transactions on
Medical Imaging: 1997, vol. 16, num. 5, p. 581-590.

12. SHUK-ME1 LAI, XIAOBO LI, AND WALTER F. BISCHOF,
Techniques for Detecting Circumscribed Masses in
Mammograms
. IEEE Transactions on Medical Imaging, 1989, vol.
8, no. 4.

13. Joachim Dengler, Sabine Behrens, and Johann
Friedrich Desaga, Segmentation of Microcalcifications in
Mammograms
. IEEE Transactions on Medical Imaging, 1993, p.
634-642.

14. On Line:
http://cienciapc.idict.cu/index.php/cienciapc/article/view/124/323

Consultado 16 de abril de 2011.

15. Segyeong Joo, Y.S.Y., Woo Kyung Moon, Hee Chan Kim,
Computer-Aided Diagnosis of Solid Breast Nodules: Use of an
Artificial Neural Network Based on Multiple Sonographic
Features
, in IEEE TRANSACTIONS ON MEDICAL IMAGING.
2004. p. 1292 – 1300.

16. D. Brzakovic, X.M. Luo, P.Brzakovic, An Approach
to Automated Detection of Tumors in Mammograms
, IEEE
Transactions on Medical Imaging, 1990, vol. 9, no. 3.

17. Enciclopedia libre On Line: http://es.wikipedia.org/wiki/C%C3%A1ncer_de_mama.
Consultado 15 de abril de 2011.

18.
http://www.secyt.frba.utn.edu.ar/gia/inteligencia_artificial.htm
: Consultado 11-marzo-2010

19. http://es.wikipedia.org/wiki/Inteligencia_Artificial
: Consultado 5-febrero-2010.

20. González, R.W.R., Tratamiento digital de
imágenes
. 1996: Addison-Wesley/Díaz de
Santos.

21. Castleman, K., Digital Image Processing.
1996, New Jersey: Prentice Hall.

22. Trucco, A.V.E., "Introductory Techniques for 3-D
Computer Vision
". 1998: Prentice Hall.

23. Even, S., Graph algorithms, in Computer
Science Press
. 1979.

24.
http://catarina.udlap.mx/u_dl_a/tales/documentos/lis/reyes_l_g/capitulo2.pdf:
Consultado: 21 de enero de 2011.

25.
http://www.varpa.org/~mgpenedo/cursos/Ip/Tema7/nodo7_2.html:Consultado:
20 de enero de 2011.

26. A. Singh, D.G., D. Terzopoulos, Deformable
Models
, in Medical Image Analysis. 1998.

27. Daubechies, I., Ten Lectures on Wavelets.
1992.

28. Matheron, G., Random Sets and Integral
Geometry
. 1975: New York City, New York: John
Wisley.

29. A. P. Zijdenbos, B. M. Dawant, R. a., and A. C.
Palmer. Morphometric Analysis of White Matter Lesions in MR
Images: Method and Validation
. IEEE Transactions on Medical
Imaging, 13(4):716–724, December 1994.

30. Serra, J., Image Analysis and Mathematical
Morphology
. 1982: Academic Press, London.

31. González, R.E.W.R.C., Digital Image
Processing.
1992: Addison Wesley.

32. J.F. Rivest, P.S., S. Beucher, Morphological
gradients. Journal of Electronic Imaging
, 1993. 2: p.
326-336.

33. J.S.J. Lee, R.M.H., L.G. Shapiro, Morphologic
edge detection. IEEE Journal of Robotic and Automation
,
1987. 3: p. 142 – 156.

34. M. Kass, A.W., D. Terzopoulos, Snakes: Active
contour models
, in Proceedings of the 1st International
Conference on Computer Vision
. 1987: London, England, IEEE
Computer Society Press. p. 259 – 268.

35. M. Kass, A.W., D. Terzopoulos, Snakes: Active
Contour Models. International Journal of Computer Vision
,
1987. 1(4): p. 321 – 331.

36. D. Terzopoulos, K.F., Deformable Models, in
The Visual Computer. 1988. p. 306-331.

37. A. Blake, I.M., Active Contours. 1998:
Springer-Verlag.

38. T. Cootes, C.T., D. Cooper, J. Graham, Active
Shape Models – Their Training and Application
, in
Computer Vision and Image Understanding. 1995. p. 38 –
59.

39. A. Parker, A.H., C. Taylor, T. Cootes, X. Jin , D.
Gibson. "Application of point distribution models to the
automated analysis of echocardiograms
". in IEEE
Proceedings on Computers in Cardiology
. 1994.

40. A. Hill, A.B., C. Taylor. "Automatic landmark
identification using a new method of non-rigid
correspondence
". in Proceedings of the 15th
International Conference on Information Processing in Medical
Imaging
. 1997. IPMI 1997.

Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter