Monografias.com > Tecnología
Descargar Imprimir Comentar Ver trabajos relacionados

Reconocimiento de patrones en imágenes médicas basado en Sistemas Inteligentes




Enviado por Enrique P. Calot



Partes: 1, 2, 3

Monografía destacada

  1. Introducción
  2. Estado de la cuestión
  3. Validación experimental
  4. Conclusión
  5. Referencias

Capítulo 1.

Introducción

El presente capítulo describe el contexto de la tesis (sección 1.1) seguido de los objetivos de la misma (sección 1.2) y finaliza con su estructura (sección 1.3).

  • Contexto de la tesis

El reconocimiento de patrones en imágenes es un campo muy amplio abierto a la investigación [Zorman et al., 2003]. Mediante la utilización de sistemas inteligentes es posible automatizar el procesamiento de grandes volúmenes de información [Zrimec, 2007]. En la medicina esto abre las puertas a un área de desarrollo incipiente y novel [Zorman et al., 2003]. Se estima que en un futuro cercano este tipo de técnicas podrán servir -bajo supervisión médica- de pre-diagnósticos [Chan et al., 1987].

El cáncer de mama es el tumor más frecuente en la mujer, representando el 31% de todos los tumores de la población femenina. Aproximadamente una de cada ocho mujeres habrá desarrollado un cáncer de mama en el curso de su vida. Éste tipo de cáncer ocupa el primer lugar entre las causas de muerte por cáncer en la mujer adulta, con una tasa ajustada de mortalidad de 27,32 cada cien mil mujeres en Argentina. Los beneficios del screening mamario han sido demostrados en numerosos estudios aleatorios desde mediados de la década de 1980 a la fecha. En éstos se ve una reducción del índice de mortalidad por cáncer de mama en por lo menos un 25% [AMA, 2006]. Es por ello que, físicos, ingenieros y médicos están en la búsqueda de nuevas herramientas para combatirlo y permitir al médico obtener una segunda opinión [Gokhale & Aslandonga, 2003; Simoff et al., 2002].

Con la autorización del uso de nuevos mamógrafos digitales por parte del Colegio Americano de Radiografía, se ha comenzado a almacenar fotos digitales en bases de datos conjuntamente con la información del paciente para luego poder ser procesadas a través de diferentes métodos [Selman, 2000].

Hay dos aspectos interesantes sobre los cuales se puede trabajar: el primero es el pre- procesamiento de la imagen [Sklansky & Ballard, 1973], problema -que gracias al estándar DICOM- se está volviendo cada vez menos significativo debido a la gran cantidad de información que es adjuntada por los equipos a las imágenes en forma de encabezado [Foshee, 1995]. El segundo aspecto es encontrar la técnica -o conjunto de técnicas- de sistemas inteligentes que mejor se adecue a este tipo de problemas (sistema experto, algoritmos genéticos, redes neuronales, sistema inteligente híbrido) [Pizer & Todd-Pokropek, 1978].

  • Objetivos del trabajo

Los objetivos de esta tesis consisten en plantear un marco teórico que permita determinar [a] estrategias para el pre-procesamiento de la imagen, [b] estrategias para establecer qué tipo de sistema inteligente es el más apto para realizar el reconocimiento, [c] proponer un de método basado en sistemas inteligentes que genere un posible diagnóstico a partir de la imagen médica preprocesada y validarlos mediante un conjunto de datos reales y [d] determinar la calidad de los diagnósticos obtenidos mediante el método propuesto por contraste de los resultados obtenidos con descriptos en trabajos anteriores y datos reales.

  • Estructura de la tesis

Esta tesis está estructurada en siete capítulos: introducción, estado de la cuestión, descripción del problema, solución propuesta, validación experimental, conclusión y referencias y dos anexos: pruebas y análisis y diseño de la solución.

En el capítulo introducción se describe el contexto de la tesis seguido de los objetivos de la misma y finaliza con su estructura.

En el capítulo estado de la cuestión se describe las tecnologías relevantes disponibles en el momento en que fue escrita esta tesis así como también los avances científicos en el área. La primera sección muestra el estado del procesamiento y reconocimiento de imágenes en general, la siguiente lo hace en concreto en el área de los sistemas inteligentes. Luego se describe la problemática actual que hay en el área y se explica las tecnologías que serán utilizadas para la resolución del problema planteado más adelante en esta.

En el capítulo descripción del problema se presenta el problema abordado en esta tesis comenzando con una reseña de la problemática actual y luego definiendo el objetivo de la tesis y el problema cuyo objetivo plantea resolver encuadrándolo bajo ciertas limitaciones y alcances que tendrá esta tesis. Se explica por qué es importante resolver este problema y se dan ejemplos, de casos concretos para dar al lector una mejor idea de cómo se ven éstos.

En el capítulo solución propuesta se describe la solución propuesta en esta tesis, dejando abiertos ciertos parámetros para que luego los resultados experimentales encuentren los más acertados. Las mejoras sustanciales al método de Ferrero son enumeradas y luego explicadas en las dos siguientes secciones: características de la base de datos y método propuesto.

En el capítulo validación experimental se expondrá los resultados obtenidos para los experimentos realizados. Se describe el subconjunto de la base de datos utilizado en los experimentos y luego se define los parámetros que quedaron abiertos y que en los resultados experimentales se pretende optar por el mejor de ellos. Se hace la validación estadística que muestra que la probabilidad de que los resultados sean favorables debido simplemente al azar sea casi nula. Finalmente se hará una breve interpretación de los resultados obtenidos.

En el capítulo conclusión se presenta las aportaciones de esta tesis y las futuras líneas de trabajo.

El capítulo referencias contiene la bibliografía y material de consulta referidos en esta tesis.

Capítulo 2.

Estado de la cuestión

El presente capítulo describe las tecnologías relevantes disponibles en el momento en que fue escrita esta tesis así como también los avances científicos en el área. La primera sección muestra el estado del procesamiento y reconocimiento de imágenes en general (sección 2.1), la siguiente lo hace en concreto en el área de los sistemas inteligentes (sección 2.2). Luego se describe la problemática actual que hay en el área (sección 2.3) y se explica las tecnologías que serán utilizadas para la resolución del problema planteado más adelante en esta tesis (sección 2.4).

  • Procesamiento de imágenes

Existen varios trabajos realizados en el área del procesamiento de imágenes aplicado a la medicina. A continuación se detallan algunas líneas de investigación y los resultados obtenidos.

  • Las primeras líneas de investigación

Pese a la previa existencia de enfoques que utilizan técnicas de subdivisión y clasificación, en lo que respecta a la detección de anomalías cardíacas, [Strauss et al., 1971] hace uso de algoritmos semiautomáticos capaces de obtener un contorno sobre una región de interés que contiene, por ejemplo, todo el ventrículo izquierdo. Su trabajo se volvió una de las primeras formas de análisis digital de imágenes en ser considerado clínicamente útil [Duncan & Ayache, 2000]. En aquel momento las redes back propagation todavía no habían sido desarrolladas.

Una segunda línea, también de esa época, seguida por un grupo relativamente pequeño de investigadores se involucró en el tema tratando al análisis de imágenes medicas como un problema de procesamiento de información en una única imagen. Esta linea posee enfoques basados en reconocimiento de patrones, procesamiento de imágenes y/o señales y visión computarizada. Ejemplos de estos incluyen el trabajo de [Sklansky & Ballard; 1973] que localiza automáticamente tumores mediante métodos relacionados a los patrones de reconocimiento. Otros esfuerzos, como el trabajo de [Pizer & Todd- Pokropek;1978], enfatizaron el mejoramiento de la imagen y las estrategias de visualización, observando que estos eran problemas críticos para los usuarios finales (radiólogos y otros). Si bien no clasifican ni automatizan nada sentó las bases del pre- procesamiento.

La característica fundamental en los enfoques de la década de los 80 fue el desarrollo de ideas a partir de la utilización de detección de bordes por contrastes en bancos de datos bidimensionales y luego la aplicación de un agrupamiento o unión básica de bordes utilizando algún tipo de heurística de búsqueda de contorno basándose en las propiedades de suavidad embebidas en la figura a estudiar (por ejemplo [Yachida et al., 1980]). Estos enfoques aprovecharon algunos avances generales hechos por la comunidad científica orientada al procesamiento de imágenes y visión computarizada, como en [Martelli, 1976], y podría ser visto como el precursor de la variedad de enfoques de búsqueda de bordes deformables presentes en el desarrollo de hoy en día.

Los primeros intentos de sistemas CAD completamente automático en mamografías de rayos X fueron propuestos recién sobre 1987 (por ejemplo [Chan et al., 1987]) y fueron basados en las mejoras de la calidad de imagen producidas en la década anterior. Estos esfuerzos obtuvieron a una variedad de operaciones con umbrales de tolerancia y detección de características sobre mamografías digitalizadas y luego funciones discriminantes lineales para intentar clasificar automáticamente tejido normal y calcificaciones [Ducan & Ayache, 2000].

  • Línea de clasificación y subdivisión orientada a pulmones

Hacia fines de la década de los noventa, [Uppaluri et al., 1999] presentó un sistema de diagnóstico asistido por computadora (CAD) para detectar seis patrones de tejidos pulmonares basándose en las características de sus texturas. Este método fue utilizado para determinar el subconjunto óptimo sobre regiones de 31×31 píxeles encontrando así la de mayor interés. Un clasificador Bayesiano fue entrenado para utilizar este subconjunto óptimo y así reconocer los seis tipos de tejidos. Se reportó que este sistema automatizado tuvo una tasa de éxitos comparable a la de un grupo de observadores humanos previamente entrenados.

En un trabajo reportado por [Sluimer et al., 2003], un banco de filtros multi-escala fue utilizado para representar la estructura y textura de la imagen. Fueron utilizados varios clasificadores para entrenar el sistema y su tasa de error mostró una performance muy similar a la obtenida en un experimento con dos radiólogos.

Casi todos los sistemas de diagnóstico asistidos por computadora dividen la imagen en pequeñas regiones, utilizan técnicas clásicas de procesamiento de imágenes para calcular las características de la imagen pero no toman ventaja del conocimiento anatómico existente. Por eso la idea de [Zrimec & Busayarat; 2007] fue primero segmentar y extraer las características anatómicas de las imágenes y luego utilizar ese conocimiento para detectar anomalías causadas por enfermedad. Con esta idea han logrado resultados cercanos al 95% en detección de alguna anomalía en los pulmones.

  • Línea de clasificación por imagen "media" aplicada al torso

Algunos enfoques se basan en la clasificación de píxeles o regiones y el cálculo de probabilidades para obtener un resultado global para la imagen en consideración. Estos enfoques requieren de etiquetado manual de píxeles o regiones para su entrenamiento. Por ejemplo para detectar una enfermedad interna en el torso [Loog & van Ginneken; 2004] y [van Ginneken et al.; 2006] aplicaron técnicas de clasificación de radiografías de torso basadas respectivamente en la clasificación de píxeles y regiones.

Según [Arzhaeva et al.; 2006], en la práctica, un buen resultado derivado de un píxel o una región no se encuentra muy seguido. Por otro lado, los resultados derivados de la imagen están casi siempre disponibles durante la recopilación de un set de datos o son más fáciles de obtener. Por lo tanto [Arzhaeva et al.; 2006] utilizó un enfoque de clasificación que permitió clasificar una imagen como un todo solamente desde entrenamientos sobre etiquetas de imágenes globales. Como la información que indica la presencia o ausencia de patología es local, una representación de una imagen es introducida conde las características de una imagen global son derivadas de características de píxeles locales. El punto de partida de este método es la extracción de las características locales desde píxeles correspondientes espacialmente en todas las imágenes bajo consideración. Una forma de obtener estos píxeles sobre la imagen es mapearla con una imagen "media" de todas las imágenes. Ésta se segmenta para obtener un numero de marcas fijas que pueden ser utilizadas para establecer una función de mapeo. Luego, un nuevo set de características gráficas se deriva de las características locales de la otra imagen.

Con muchas imágenes de referencia, es posible construir un banco de imágenes para entrenar a la clasificación de las mismas.

Este método puede ser aplicado en puntos donde la anatomía es muy similar, en el caso del cáncer de mama, la clasificación obtendría varios errores ya que los tamaños y tipos de tejidos están sujetos al constante cambio existiendo una infinidad de patrones distintos que representan mamas sanas y otra infinidad que representa mamas enfermas.

  • Procesamiento de imágenes y sistemas inteligentes

Siguiendo la línea aplicada al cáncer pulmonar, [Uchiyama et al., 2003] también dividió al pulmón en regiones cuadradas y empleó redes neuronales para clasificar imágenes tomográficas de alta resolución en seis clases de texturas. La red neuronal, entrenada con ejemplos de diferentes patrones de tejidos fue capaz de detectar automáticamente las anormalidades contenidas en la imagen y proveer una buena clasificación.

También dentro del enfoque de las redes neuronales se destaca un trabajo, el de [Ferrero et al.; 2006], que propone la utilización de redes neuronales back propagation para clasificar mamografías y poder así concluir el tipo de anomalía detectado en ella. Este proceso está dividido en capas, la primera hace un pre-procesamiento de las imágenes, las cuales son ecualizadas para resaltar más su brillo y contraste. Luego se divide la imagen en NxN regiones cuadradas de igual tamaño. Una vez realizado este paso sobre cada región -la cual posee una cantidad determinada de píxeles- se procede a calcular los operadores estadísticos media, varianza, desviación estándar y su sesgo.

Con estos cuatro valores, se obtiene un conjunto de 4xNxN valores, los cuales son ingresados como entrada a una red neuronal back propagation, la cual, debidamente entrenada deberá clasificar la mama.

Además, en dicho trabajo se menciona una previa y exhaustiva búsqueda -sin resultados exitosos- sobre software existente con el mismo enfoque, mostrando así que su proyecto podía ser viable ya que no existían precedentes en el área.

  • Problemática que se presenta

Este enfoque presenta varias falencias, la principal es la utilización de píxeles mediante coordenadas cartesianas, las cuales son producto de una arbitrariedad (el ángulo en que fueron adquiridas las imágenes), entrenar una red neuronal para que aprenda con todos los ángulos requiere de un set de datos muy importante y esto decrementa la tasa de éxitos. Otra falencia importante es la calidad de la entrada, si son píxeles, se requiere una entrada muy grande generando nuevamente la necesidad de un set de datos acorde, lo cual, al volverse inviable obliga a tomar menos entradas y con ello ignorar más información que puede ser útil; incluso imágenes con muy alta resolución deberían ser reducidas para poder ser mapeadas a la red neuronal obteniéndose la misma calidad de resultado que una imagen de muy baja resolución. Si bien se toman medias, varianzas y otros operadores estadísticos los lugares donde son aplicados pueden estar lejos de las zonas de interés y por ende no aportan información útil al proceso de clasificación.

En esta tesis se hipotetizará que por estas razones las tasas son muy bajas y que si se solucionaran algunos de estos problemas, la tasa aumentaría.

Los resultados obtenidos durante los experimentos de dicho trabajo tuvieron una tasa de éxito aproximada del 60%, lo cual continúa siendo bajo para la producción e implementación de un software basado en el algoritmo propuesto. Cabe destacar que una clasificación aleatoria logra una tasa media de éxito del 50% que es el mínimo posible desde el punto de vista de la teoría de la información [Shannon, 1948] (o el máximo de entropía). Si un algoritmo logra tasas medias menores que 50%, entonces invirtiendo sus resultados se obtendrían tasas mayores y por lo tanto resultaría útil. Una tasa del 60% solo aporta información del orden de 10% sobre 50%, es decir un 20%; una tasa de éxito media del 75% aporta un 50% de información y ya comienza a ser importante. A modo de curiosidad, lograr un algoritmo con una tasa media de éxito del 0% sería óptimo, ya que es sabido que el algoritmo siempre se equivoca y por lo tanto, al tener dos valores posibles, solo hay que descartar el valor obtenido y se sabrá que el restante siempre es la solución.

Por otro lado esta línea de investigación fue descontinuada, no se siguió publicando trabajos al respecto ni avanzando sobre las líneas abiertas de investigación.

  • Tecnología a utilizar

Se presentan dos tecnologías principales, la primera es las redes neuronales, y más específicamente las back propagation o de retropropagación explicadas en 2.4.1 y la segunda es una tecnología aplicada al procesamiento gráfico, el operador Sobel, el cual permite detectar bordes en imágenes en 2.4.2.

  • Redes back propagation

Una red neuronal artificial es una estructura que permite procesar entradas de forma similar a la que ocurre en nuestro cerebro. Están compuestas, básicamente, por pequeñas unidades llamadas neuronas que pueden estar enlazadas entre sí. Esta estructura recibe una entrada de datos que, luego de ser adaptada para tomar valores admitidos por las neuronas, son ingresados en algunas de ellas (neuronas de entrada) y luego, siguiendo las conexiones (sinapsis) entre neuronas se va propagando información hasta llegar a las neuronas de salida, las cuales arrojan un resultado. Existen varios tipos de redes neuronales, dependiendo de la forma en que estas conexiones estén hechas se puede obtener distintos métodos de procesamiento. En esta tesis presentaremos dos tipos de redes, las SOM, que permiten encontrar patrones similares entre los datos y las back propagation que son capaces de "aprender" un proceso que se les "enseña" con varios ejemplos de datos y sus respectivas soluciones. Debido a que la solución propuesta y experimentada no incluye las redes SOM, no se hará mucho hincapié en las mismas.

  • Introducción

Una red neuronal de tipo back propagation permite aprender mediante un conjunto de ejemplo (entrada-salida) comúnmente denominado training set. Al haber aprendido mediante este conjunto, se puede obtener una salida coherente para una entrada dada.

En la figura 2.1 es posible observar como se obtiene una salida a partir de la entrada. La red neuronal en este caso la vemos como una caja negra. En la figura 2.2 se observa como es internamente una red neuronal, en este caso solo se observan dos capas, una de entrada y otra de salida, más adelante incorporaremos más capas intermedias.

Monografias.com

Figura 2.1. Vista de caja negra de una red neuronal.

Monografias.com

Monografias.com

Figura 2.2. Vista interna de una red neuronal sin capas ocultas.

Monografias.com

Monografias.com

Figura 2.3. Esquema de entrenamiento de una red neuronal.

Como es de esperar, si se corre para la misma entrada este proceso varias veces, el resultado final sería, siempre y cuando la configuración de la red lo permita, una red con error nulo para ese valor. Ese no es el objetivo, sino lo que se desea es entrenar a la red con varias entradas y luego ver que sucede cuando ingresamos alguna que no estaba en el set de datos de entrenamiento. Es por esta razón que no se itera sobre un mismo elemento del set de datos hasta eliminar el error sino que se realiza un acercamiento con un elemento, luego con otro y así hasta recorrer todo el conjunto de datos. A esta recorrida sobre el set de datos se la suele denominar epoch. El error no será bajo, pero la red se habrá acercado hacia una zona donde convergen todos los elementos. Al repetir el proceso varias veces, es decir iterar varios epoch, la red comenzará a entrenarse.

  • Demostración formal


 

Capítulo 3.

Descripción del problema

Este capítulo describe el problema abordado en esta tesis comenzando con una reseña de la problemática actual (sección 3.1) y luego definiendo el objetivo de la tesis y el problema cuyo objetivo plantea resolver encuadrándolo bajo ciertas limitaciones y alcances que tendrá esta tesis (sección 3.2). Se explica por qué es importante resolver este problema (sección 3.3) y se dan ejemplos, de casos concretos para dar al lector una mejor idea de cómo se ven éstos (sección 3.4).

  • Problemática actual

El cáncer de mama es el tumor más frecuente en la mujer, representando el 31% de todos los tumores de la población femenina. Aproximadamente una de cada ocho mujeres habrá desarrollado un cáncer de mama en el curso de su vida. Este tipo de cáncer ocupa el primer lugar entre las causas de muerte por cáncer en la mujer adulta, con una tasa ajustada de mortalidad de 27,32 cada cien mil mujeres en Argentina. Los beneficios del screening mamario han sido demostrados en numerosos estudios aleatorios desde mediados de la década de 1980 a la fecha. En éstos se ve una reducción del índice de mortalidad por cáncer de mama en por lo menos un 25% [AMA, 2006]. Es por ello que, físicos, ingenieros y médicos están en la búsqueda de nuevas herramientas para combatirlo y permitir al médico obtener una segunda opinión [Gokhale & Aslandonga, 2003; Simoff et al., 2002].

Se han utilizado varios métodos para clasificar anomalías en imágenes medicas, como wavelets, teoría de fractales, métodos estadísticos, los cuales en su mayoría han utilizado técnicas tomadas de la rama principal del procesamiento de imágenes. Además otros métodos se encuentran presentes en la literatura, como los basados en la teoría de conjuntos difusos, modelos de Markov y redes neuronales. La mayoría de los métodos asistivos mostraron ser herramientas potentes capaces de asistir al personal médico en hospitales permitiendo así obtener mejores resultados al diagnosticar un paciente [Ferrero et al, 2006; Antonie et al, 2001].

Enfocar este problema mediante redes neuronales está comenzando a ser un modelo a seguir y hay varios proyectos de desarrollo de software relacionados, sin embargo todos se encuentran en estado experimental. Uno de los últimos desarrollos, el de [Ferrero et al, 2006] , ha obtenido un 60% de éxito a la hora de clasificar el tipo de tumor presente en una imagen.

  • Objetivo, definición y límites del problema

El objetivo de esta tesis es mejorar, mediante un marco metodológico de por medio, la tasa de éxitos obtenida en los trabajos de [Ferrero et al, 2006]. Se pretende complementar el proceso descripto en dichos trabajos agregándole alguna variante beneficiosa.

El problema tratado consiste en clasificar anomalías en mamografías cuyo contorno ha sido previamente seleccionado. Estas anomalías pueden ser tumores y deberán ser clasificadas en malignos o benignos además de calcularse otros parámetros como el grado de malignidad.

Se pretende minimizar el índice de error en la clasificación mediante la combinación de varios parámetros para así tratar de mejorar los resultados obtenidos por [Ferrero et al, 2006].

Queda fuera del problema la forma en que el contorno es seleccionado. Al igual que la imagen a procesar, esta tesis tratará al contorno como un dato más, asumiendo que éste fue previamente marcado por un experto de forma manual o bien por otros métodos automáticos.

  • Importancia de su resolución

La solución de este problema es de importancia debido a que, a diferencia de otras patologías, el cáncer de mama es frecuente y se recomienda un control anual sobre toda la población femenina. Esto genera un volumen alto de información a ser procesada. El diagnóstico de enfermedades mediante herramientas de detección asistida por computadora permitiría al experto no solo una mayor velocidad de procesamiento para todas estas imágenes sino también serviría de filtro sobre imágenes sanas o como clasificador de prioridades si es que se desea hacer, de todas formas, un diagnóstico manual.

Frente a tal volumen de imágenes es importante que el médico preste atención a las imágenes con mayor riesgo y una pre-clasificación automática es la herramienta adecuada para seleccionar que imágenes deberán ser vistas con anterioridad. Cabe destacar que el cáncer es una enfermedad cuya probabilidad de éxito en el tratamiento mejora de manera inversamente proporcional a lo avanzada que se encuentre la enfermedad, por lo tanto, cuanto antes sea detectada, el avance será menor maximizando el riesgo de vida del paciente. Justamente, el objetivo de realizar este estudio a toda la población es para garantizar una detección temprana de la patología, incluso antes de que desarrolle sintomatología visible, porque es posible que en este caso sea demasiado tarde [Smith et al, 2006].

  • Casos reales

Se desea encontrar la mejor distribución de parámetros que permita clasificar una mama enferma identificando si el tumor es benigno o maligno. En los ejemplos mostrados posteriormente puede observarse dos casos de mamas que presentan un tumor benigno. La primera de ellas contiene una calcificación, figuras 3.1 y su ampliación 3.2; la segunda, en las figuras 3.3 y 3.4, contiene un tumor generado por la calcificación. En las figuras 3.5 y 3.6 se presenta un tumor maligno y su ampliación respectivamente.

Monografias.com

Monografias.com

Capítulo 4.

Solución propuesta

El presente capítulo describe la solución propuesta en esta tesis, dejando abiertos ciertos parámetros para que luego los resultados experimentales encuentren los más acertados. Las mejoras sustanciales al método de Ferrero son enumeradas (sección 4.1) y luego explicadas en las dos siguientes secciones: características de la base de datos (sección 4.2) y método propuesto (sección 4.3).

  • Aspectos generales

En esta sección se proponen dos mejoras sustanciales. La primera es la utilización de una base de datos The Digital Database for Screening Mammography (DDSM) [Heath, 1998; 2001] de la University of South Florida (USF) –entre otros–, que posee imágenes de mayor resolución y tiene una cantidad mucho más grande de estudios agrandando así el tamaño de la muestra. Además se cuenta con mayor información sobre cada imagen, como el contorno de los tumores y varias otras clasificaciones que no estaban en la base de MIAS.

El aporte principal que intentará hacer esta tesis es mejorar los parámetros de entrada a la red neuronal utilizada por Ferrero et al. Este aporte se logra mediante la segunda mejora, que es la utilización de regiones alrededor del borde preseleccionado. Estas regiones están definidas como capas concéntricas y serán similares a anillos deformados salvo la región del núcleo del tumor (ver figura 4.1). Operadores gráficos y estadísticos serán aplicados sobre ellas para obtener valores numéricos, los cuales pueden ser entradas para las redes que harán la clasificación. Esto propone analizar la anomalía en sí y no la mama entera utilizando la información de contorno que esta base de datos provee.

  • Características de la Base de datos DDSM

La Digital Database for Screening Mammography (DDSM) es un recurso para ser usado por la comunidad científica para el desarrollo de herramientas de análisis de imágenes. El proyecto de la conformación de la misma fue soportado y cedido principalmente por el programa de Investigación del cancer de mama (Breast Cancer Research Program) del U.S. Army Medical Research and Materiel Command. El proyecto DDSM es un esfuerzo colaborativo que involucra al Massachusetts General Hospital, la Universidad de Florida del Sur (University of South Florida), el Sandia National Laboratories, la facultad medicina de Washington (Washington University School of Medicine) entre otros.

El objetivo principal es facilitar un banco de datos a los desarrolladores de algoritmos computacionales asistivos para ayudar en el diagnóstico de imágenes. La base de datos contiene aproximadamente 2500 estudios. Cada estudio incluye dos imagines de cada pecho además de información asociada al paciente -edad con la que realizó el estudio, densidad del pecho, una medida de la dificultad de detectar una anormalidad, descripciones de la anormalidad, etc- e información relacionada con la imagen -tipo de scanner, resolución, etc.-. Las imágenes que contienen áreas sospechosas tienen contornos marcados píxel por píxel que encierran un "intervalo de verdad" además de información sobre las mismas. También se provee documentación sobre los formatos y hasta un software que fue cuidadosamente estudiado y analizado para el desarrollo del código fuente necesario para realizar de los experimentos de esta tesis.

Información específica acerca del formato interno de esta base se encontrará en la sección 4.3.3.1 (página 30).

  • Método propuesto

4.3.1 Definiciones previas

Llamaremos contorno al borde de la anomalía, la cual suele verse en la imagen como una zona más brillante que el resto. Este borde puede estar bien definido o no estarlo tanto. Su ancho depende de la resolución, pero en general, para una misma resolución suele ser más definido en tumores benignos que en malignos.

Este contorno será un dato del problema y como tal será marcado por un experto o bien por un método automatizado. Si bien el contorno es una franja con un ancho en particular, el dato es una curva aproximada ubicada en el centro de la región. Existe un error sobre este, pero dada la resolución de la imagen tiende a ser bajo.

Definiremos también como capas concéntricas a las regiones circundantes al contorno y las catalogaremos según la distancia al contorno. La región interior la llamaremos núcleo. Es posible que éste no exista si las capas interiores son muy anchas. En la figura 4.1 se muestra un ejemplo con dos regiones internas y dos externas.

Monografias.com
Figura 4.1. Capas concéntricas.

Un filtro aplicado a una imagen es un proceso que al aplicarse para cada píxel obtiene una imagen que depende de la primera pero con ciertos modificaciones proporcionadas por el filtro. El filtro Sobel, por ejemplo permite obtener una imagen con píxeles cuya mayor luminosidad indica que en la imagen original hay un cambio de intensidad luminosa mucho mayor [Behrend, 2006].

Más adelante se definirán los siguientes temas con mayor detenimiento.

  • Explicación del método

El método consta de varias etapas. Cada etapa está separada de manera abstracta mediante una interfaz definida entre cada una y pasando la información requerida. De esta forma es posible modificar el algoritmo, optimizar la programación o hasta cambiar el diseño del procesamiento dentro de una etapa sin tener que afectar al resto.

En la figura 4.2 podemos observar como está definido nuestro procesamiento, desde que ingresa la imagen hasta que termina. La interfaz entre cada etapa es el formato en el que se comunican.

Monografias.com

El primer paso es la adquisición de la imagen. Allí la imagen puede ser obtenida de la base DDSM, de la base MIAS (con el contorno marcado por un experto de manera interactiva o bien automática) o bien escaneada directamente (ídem MIAS). Una vez obtenida esa información, esta es enviada a la siguiente etapa en un mismo formato, esto nos permite abstraer el procesamiento del medio por el cual fue adquirido.

El segundo paso es el preprocesamiento. Este paso no aporta mucha información a la máquina, pero sí para el ojo humano. De todas formas es bueno realizarlo porque permitiría homogeneizar las características de brillo y contraste de ciertos equipos y los distintos tipos de penetración que utilizan.

La penetración de un rayo sobre un cuerpo es la capacidad que tiene éste de no ser detenido por el mismo. Depende de varios parámetros y, según ésta, la placa se verá más brillante o más opaca.

Un ajuste de brillo y contraste que homogeneíce las imágenes puede evitar errores sistemáticos importantes en procesos posteriores.

La tercera etapa es la que calcula las regiones y contornos. A partir del contorno en forma de trazado, se generará la superficie remarcada, se detectará que está dentro y que está fuera de la misma, se verificará que la curva sea cerrada y se crearán las regiones concéntricas alrededor del mismo. Esto se hará tanto para adentro como para afuera del contorno generando una cantidad configurable de capas de un tamaño establecido tanto en el interior como en el exterior del borde dado.

Se requieren varios algoritmos de baja complejidad para realizar este procedimiento. También se debe analizar la forma en se almacenarán los datos durante esta etapa de procesamiento y como será la interfaz con la etapa siguiente. Las dos posibles formas de almacenamiento son la vectorial y por mapa de bits.

En la cuarta etapa se trata a la imagen adquirida mediante filtros de procesamiento de imágenes. Los filtros a utilizar serán configurables y pueden ser varios. Incluso aquí es posible obtener varias imágenes en su interfaz de salida.

La quinta etapa es la que une la información de contorno con la de imagen. Se superpone la -o las- imágenes producidas en las etapas anteriores y se las somete a una comparación de luminosidad media y varianza por cada región, obteniéndose así una cantidad predefinida de valores de salida que serán utilizados por la siguiente etapa.

La última etapa es la que incorpora la inteligencia artificial. Se reciben valores específicos de esas regiones y se los compara con valores ya conocidos. Estos valores que recibimos podrían ser considerados como la "huella digital" de la mamografía, ya que identifican a la misma. Si se han seleccionado adecuadamente los algoritmos de cada capa, es de esperar que si una imagen perteneciente a una mama enferma tiene una huella, otra imagen con huella similar también lo esté.

Para este procesamiento es posible utilizar varios algoritmos. Buenos ejemplos podrían ser redes neuronales back propagation o bien, tras realizar un clustering mediante otro tipo de métodos, la clasificación de las huellas en subgrupo más específicos y luego la comparación de los mismos con imágenes patrones o mediante redes neuronales entrenadas específicamente para dichos clusters.

  • Adquisición de la imagen

El proceso de adquisición de la imagen es una abstracción que permite que la imagen sea adquirida de distintas bases de datos sin la necesidad de modificar el código del resto del clasificador. En esta etapa deberá ser codificada la interfaz con el usuario en caso de no poseer el contorno y desearse que este sea ingresado de manera manual. También debería ser consideradas la posibilidad de extenderla con un procedimiento de selección automática del contorno. Existen varios algoritmos para detectarlo, por ejemplo detección de zonas de alto brillo mediante un umbral de tolerancia o clustering mediante bisecting k-means. Estos algoritmos escapan al alcance de esta tesis.

A grandes rasgos, en la actualidad existen tres formas de ingreso de datos: la primera es de manera manual, la digitalización de una imagen (o importación de la misma) con el marcado de su respectivo contorno; la segunda es importarla de la base MIAS, también marcando manualmente el contorno y la tercera es importarla de la base DDSM, cuyo contorno es dato.

En esta tesis se trabajará con la tercera forma, sin embargo el software producido deberá admitir la primera para realizar la clasificación sobre datos reales.

Cabe destacar que la base MIAS proporciona la ubicación del tumor y un radio aproximado, pero su error es muy grande como para ser tenido en consideración.

Una vez adquiridas las imágenes, estas serán convertidas al formato definido en la interfaz y así enviadas para su tratamiento en las etapas correspondientes.

La tabla 4.1 resume la información conocida dependiendo del medio de adquisición.

Medio de adquisición Soporte de imagen Soporte de contorno Resultado conocido

MIAS DDSM

Si Si

No Si

Si Si

Digitalización

Si

No

No

Tabla 4.1. Comparación de los medios de adquisición de datos.

En las secciones a continuación se presenta la información referida a la adquisición de dichas imágenes especificando el formato de cada medio en particular.

  • Base de datos MIAS

La base MIAS contiene sus imágenes en formato Netpbm PGM, compatible con la mayoría de los programas de edición de gráficos (GIMP, Imagemagick, etc). La resolución es de 8 bits por píxel (256 colores) en escala de grises. Cada píxel representa 50&µ m por 50&µ m. Los resultados se almacenan en un archivo separado el cual está en formato de texto y es fácil de ser abierto y procesado [Davies, 1993].

Monografias.comPara ingresar esta información a la base de datos se propone el diagrama de flujo de datos expuesto en la figura 4.3.

Monografias.com

Figura 4.3. Especificación del subflujo de datos para procesar la adquisición de imágenes obtenidas de MIAS.

El proceso de lectura consiste en leer el archivo PGM y llevarlo a un mapa de bits en memoria, el cual – mediante la respectiva interacción con un sistema externo o interfaz de usuario- permitirá obtener el contorno. La información meta del paciente y el diagnóstico (resultados) es leído archivo de texto e interpretado. Toda esta información se envía a la siguiente etapa respetando la interfaz. Cabe destacar que los resultados son información optativa y pueden venir vacíos si no se cuenta con ellos, ya que solo son útiles en etapas de entrenamiento.

  • Digitalización propia

Las imágenes adquiridas por digitalización propia provienen del estándar DICOM. En otro caso debe desarrollarse el subflujo de proceso específico para ese caso como se observa en la figura 4.4.

Monografias.com
Figura 4.4. Especificación del subflujo de datos para procesar la adquisición de imágenes digitalizadas manualmente o importadas mediante el estándar DICOM.

El estándar DICOM contiene archivos de extensión DCM con imágenes comprimidas generalmente con Lossless JPEG pero además contienen información meta relacionada como información estadística del paciente (nombre, apellido, sexo y edad entre otros parámetros), del equipo (nombre, código y especialmente la resolución) y del instituto donde éstas imágenes fueron obtenidas. La mayoría de los equipos soportan este estándar [Foshee, 1995].

  • Base de datos DDSM

La base de datos DDSM es provista por la University of South Florida (USF). Es muy completa y provee el contorno necesario. Esta tesis realizará sus casos de experimentación con información proporcionada por esta base.

El formato utilizado es el Lossless JPEG crudo para cada imagen, provee dos imágenes por cada mama: lateral y hacia abajo. Además dispone de un archivo de texto con el o los contornos de cada imagen además de un diagnóstico completo e información meta del paciente. La figura 4.5 indica como procesar la adquisición de imágenes desde este banco de datos.

Partes: 1, 2, 3

Página siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter