37 resultados para Técnicas de la imagen
em Universidad Politécnica de Madrid
Resumo:
Esta investigación realiza un estudio de la imagen de marca de distintas entidades financieras que operan en España. Para llevar a cabo esta investigación se utiliza una técnica de marketing denominada Evaluación Periódica de la Imagen (EPI), que proporciona una combinación de las ventajas de las técnicas cuantitativas y cualitativas. Los resultados obtenidos muestran que las dos entidades financieras percibidas más iguales entre sí son La Caixa y Caja Madrid; por el contrario, las dos entidades percibidas más diferentes son el Santander y Caja Madrid. Finalmente, el estudio muestra la imagen relativa, imagen individual y un mapa de posicionamiento de las entidades analizadas.
Resumo:
La seguridad alimentaria de hortalizas de hoja puede verse comprometida por contaminaciones microbianas, lo que ha motivado la promoción mundial de normas de seguridad en la producción, el manejo poscosecha y el procesado. Sin embargo, en los últimos años las hortalizas han estado implicadas en brotes de Escherichia coli, Salmonella spp y Listeria monocytogenes, lo que obliga a plantear investigaciones que posibiliten la detección de contaminación por microorganismos con técnicas rápidas, no destructivas y precisas. La imagen hiperespectral integra espectroscopia e imagen para proporcionar información espectral y espacial de la distribución de los componentes químicos de una muestra. Los objetivos de este estudio fueron optimizar un sistema de visión hiperespectral y establecer los procedimientos de análisis multivariante de imágenes para la detección temprana de contaminación microbiana en espinacas envasadas (Spinacia oleracea). Las muestras de espinacas fueron adquiridas en un mercado local. Se sometieron a la inoculación mediante la inmersión en suspensiones con poblaciones iniciales de 5 ó 7 unidades logarítmicas de ufc de una cepa no patógena de Listeria innocua. Después de 15 minutos de inoculación por inmersión, las hojas fueron envasadas asépticamente. Se consideró un tratamiento Control-1 no inoculado, sumergiendo las espinacas en una solución tampón (agua de peptona) en lugar de en solución inoculante, y un tratamiento Control-2 en el que las hojas no se sometieron a ninguna inmersión. Las muestras se almacenaron a 8ºC y las mediciones se realizaron 0, 1, 3, 6 y 9 días después de inocular. Cada día se determinaron los recuentos microbianos y se adquirieron las imágenes con una cámara VIS-NIR (400-1000 nm). Sobre los gráficos de dispersión de los scores de PC1 y PC2 (análisis de componentes principales computados sobre las imágenes hiperespectrales considerando el rango de 500-940 nm) se reconocieron diferentes patrones que se identificaron con niveles de degradación; así se seleccionaron píxeles que conformaron las clases de no degradados, semi-degradados y degradados. Se consideraron los espectros promedio de cada clase para asignar los píxeles anónimos a una de las tres clases. Se calculó la distancia SAM (Spectral Angle Mapper) entre el espectro promedio de cada categoría y cada espectro anónimo de las imágenes. Cada píxel se asignó a la clase a la que se calcula la distancia mínima. En general, las imágenes con los porcentajes más altos de píxeles levemente degradados y degradados correspondieron a contenidos microbiológicos superiores a 5 unidades logarítmicas de ufc.
Resumo:
A pesar los graves condicionamientos socio-económicos y energéticos, se observa una demanda creciente de medios mecánicos y de sofisticación de los mismos, a nivel mundial. Los años 60 suponen un importante empuje en el desarrollo de medios mecánicos, siendo el momento de despegue de la U.C. Davis con el Dept. of Agricultural Engineering. En este momento se establece la llegada de Ingenieros y Científicos agrarios españoles a California. Los programas de colaboración desde aquel momento hasta hoy impulsan varios de los avances desde nuestro punto de vista más importantes en la mecanización de la agricultura española, recolección de frutos con vibradores; sistema mecanizado integrado de producción de lechugas, siembra y recolección mecánica del tomate para industria y producción y utilización de biogás a partir de residuos agrícolas. Otros temas más recientes tratan de dar respuesta a nuevos problemas como: sistemas más económicos y apropiados de laboreo del suelo, evaluación de la calidad de frutas y hortalizas, recolección y manejo no destructivos de frutos. Se incorpora cada vez más una visión sistemática e integrada de la mecanización agraria. La interacción entre los materiales biológicos, los medios mecánicos y el hombre es apreciada como un todo, el cual tiende a desarrollarse de forma unificada.
Resumo:
Uno de los aspectos fundamentales en un sistema de cirugía guiada por imagen (CGI) es la localización del instrumental quirúrgico con respecto a la anatomía del paciente. Los sistemas basados en sensores ofrecen buenos niveles de precisión, pero son sensibles a distintas fuentes de ruido en el quirófano y contribuyen a la sobrecarga tecnológica del mismo. Una alternativa novedosa es analizar la imagen del vídeo endoscópico para llevar a cabo la detección y localización espacial del instrumental. Se presenta en este trabajo la validación de dos métodos, basados en el diámetro aparente y en la sección transversal del instrumental, para la localización espacial del instrumental a partir de los bordes y la posición 2D de la punta en la imagen. La validación, llevada a cabo en un simulador físico, se realiza comparando los resultados con el sistema Kinescan/IBV. Los resultados muestran para cada método un error medio de 12,7 y 12,8 mm respectivamente. La incorporación de estos algoritmos dentro del paradigma de navegación propuesto en el proyecto THEMIS permitirá al cirujano conocer la posición del instrumental de forma no intrusiva y transparente, sin necesidad de equipamiento adicional en el quirófano.
Resumo:
La imagen heredada del siglo XVIII
Resumo:
Objetivo moderno. La fotografía de Julius Shulman y la construcción de la imagen de la arquitectura del sur de California
Resumo:
En este proyecto hemos realizado un análisis sobre la sostenibilidad de las tecnologías de generación más representativas desde un punto de vista sostenible. El objetivo de este proyecto es valorar cuantitativamente la sostenibilidad utilizando para ello los tres pilares de la sostenibilidad, para ello nos hemos apoyado en estudios sobre impactos medioambientales, seguridad en el suministro y costes de generación. Todo esto nos ha llevado a la conclusión de que aunque no existe una tecnología que satisfaga todas las necesidades, las nuevas tecnologías de generación, como las renovables, ganan en competitividad si añadimos un punto de vista sostenible. ABSTRACT In this paper, we have done an analysis about the sustainability of the power generation technologies most representative form a sustainable point of view. The objective of this paper is to evaluate quantitatively the sustainability using for this the three pillars of sustainability, for this we have relied on studies about environmental impacts, security supply and generation costs. All this led us to the conclusion that although there is no technology that satisfies all the necessities, the new generation technologies, such as the renewable, gains in competitiveness if we add a sustainable point of view.
Resumo:
La ciberseguridad es un tema que está cobrando cada vez más importancia en nuestra sociedad debido al continuo desarrollo que está experimentando Internet. Las personas siempre se han preocupado por proteger sus datos y posesiones físicas; pero, por algún motivo que se desconoce, no logran tomar conciencia de que es igualmente importante guardar de manera segura su información digital. Últimamente, empresas y particulares han empezado a instalar cortafuegos, sistemas anti-virus, sistemas de detección frente a intrusos, etc. Sin embargo, hay una parte de la ciberseguridad desconocida y muy peligrosa que puede provocar que un ataque tenga éxito pese a existir todos estos sistemas de protección: la Ingeniería Social. El objetivo de este documento es repasar de manera detallada las técnicas que utilizan hoy en día los hackers para complementar sus ataques o para realizarlos directamente a través de ellas. Muchos métodos han existido siempre, otros han evolucionado a través del tiempo y algunos han surgido con el paso de los años debido a los nuevos medios de comunicación que se han ido desarrollando. Además, se va a intentar analizar cuáles son las mejores técnicas dependiendo de cuál sea el objetivo del atacante. Este estudio se ha realizado considerando las diferencias que supone que un ataque vaya dirigido a una persona corriente o a una empresa en particular. Este apartado reúne todos los datos que se han podido encontrar para que quien lo lea sea capaz de tener en cuenta la mayoría de casos posibles que un hacker puede considerar cuando realiza un ataque de estas características. Por último, se ha creído importante proponer una campaña de concienciación para aportar una posible solución a la educación de la sociedad sobre la Ingeniería Social. Repasando campañas de sensibilización hechas en el pasado por empresas, instituciones privadas o gobiernos y analizando los errores y aciertos de éstas, se ha desarrollado brevemente una campaña de cambio social propia
Resumo:
Se trata de una aproximación al estudio de la arquitectura vernácula de la provincia de Ciudad Real, con un recorrido a través de las distintas comarcas, destacando las características de las diferentes respuestas constructivas al medio físico. Desde un conocimiento del territorio, y apoyándose en las imágenes, se analiza de forma transversal el objeto arquitectónico que conforma la edilicia urbana de los núcleos poblacionales del espacio provincial. Se realiza una visión general de los escasos ejemplos populares de los caseríos de la provincia. Se estudia la casa urbana, la impronta visual en calles y plazas, como tipo edificatorio más común, su composición, materiales, programa, distribución, volumen, sistemas constructivos y elementos arquitectónicos (lenguaje formal). Análisis aproximativo a la arquitectura vernácula urbana, en un trabajo de campo casi arqueológico. Al no profundizar sólo se resumen los aspectos principales y diferenciales de la arquitectura tradicional en la provincia de Ciudad Real, como transición entre la casa castellana y los cortijos andaluces, entre la casa extremeña y la levantina, con sus influencias y peculiaridades.
Resumo:
El grupo de investigación GTIC-Radiocomunicaciones de la Universidad Politécnica de Madrid (UPM) participa en uno de los experimentos de propagación de APEX (Alphasat Propagation Experiment), denominado Alphasat propagation experiment by measuring the copolar level of the Q-Band beacon at 39.4 GHz. El experimento comenzó en abril de 2014, midiendo la señal de 39,4 GHz. Durante los primeros meses hasta septiembre de 2014, se hicieron medidas con apuntamiento fijo. El satélite no es geoestacionario sino que tiene una cierta inclinación, por lo que su posición aparente no es fija, describiendo una pequeña elipse en el cielo. Como consecuencia de esto se produce una variación sistemática en el nivel de la señal recibida que hay que eliminar. El presente Trabajo fin de Grado recoge técnicas útiles para llevar a cabo la compensación del desapuntamiento producido por el apuntamiento fijo configurado en el receptor diseñado por el grupo de investigación GTIC-Radiocomunicaciones de la UPM. El conjunto de datos utilizado, ha sido preprocesado con anterioridad llevándose a cabo un proceso de marcado y sincronización de los datos obtenidos a través de la baliza a 39,4 GHz enviada desde el Alphasat. A lo largo del documento se interpretarán y compararán los resultados obtenidos mediante gráficas elaboradas tras la aplicación de las técnicas que se describen en el desarrollo del mismo.
Resumo:
El siguiente trabajo parte de la idea que tiene en cuenta al concepto del movimiento como una de las grandes aportaciones de la arquitectura del siglo XX. En contraposición a la arquitectura renacentista que destacaba y basaba sus composiciones en la perspectiva o la arquitectura academicista más estática y contemplativa, en el siglo XX el movimiento está comprometido directamente en la percepción y composición del espacio. En la propia naturaleza del concepto de movimiento se ven implicados otros conceptos tales como las secuencias y los recorridos.
Resumo:
Este proyecto consistira en la realization de un estudio aciistico sobre la sala 8 de los cines Kinepolis de Ciudad de la Imagen, que dispone de 408 butacas. Los cines Kinepolis es uno de los mayores complejos multisala de Europa. Cuenta con mas de 9.200 butacas en total distribuidas en 25 salas a las que se accede mediante dos grandes pasillos conectados por el hall. En 1998, ano de su apertura, el complejo recibio el Record Guinness a la sala cinematografica mas grande del mundo, que dispone de 996 butacas. El objetivo de este proyecto es conseguir caracterizar acusticamente una sala de cine a traves de la medicion de parametros acusticos de la sala y de un modelo virtual de la misma. Para llevar a cabo el proyecto, primero se van a realizar tanto una medicion geometrica como acustica de la sala mediante el sistema de medida DIRAC. Los resultados de estas mediciones nos serviran para construir y validar un modelo virtual de la sala real con el software de simulacion EASE. La medicion acustica se va a realizar con el sistema de medicion DIRAC. Este sistema nos dara information sobre una amplia variedad de parametros acusticos. En este proyecto no se va a trabajar con todos ellos, solo con los mas significativos. Estos se describen a continuacion en la introduccion teorica. La medicion geometrica nos va a servir para construir un modelo virtual que tenga las mismas dimensiones que la sala original. Esta medicion la realizaremos mediante un medidor laser y una cinta metrica. Una vez construido el modelo virtual, se procedera a su validacion. Este proceso se realiza ajustando el tiempo de reverberacion del modelo mediante la introduccion de distintos materiales acusticos en las superficies del mismo, de manera que, variando la absorcion de la sala, el tiempo de reverberacion promedio del modelo se asemeje lo mas posible al medido en la sala real. Este proceso tiene como objetivo comprobar que el modelo virtual tiene un comportamiento acustico similar al de la sala real. Es necesario validar adecuadamente el modelo para que las comparaciones y conclusiones sean fiables. Por ultimo, tras la simulacion acustica del modelo, se compararan los resultados simulados con los medidos en la sala. En este proceso se contrastaran algunos de los parametros que guardan relation con el tiempo de reverberacion. De esta manera se verificara si el tiempo de reverberacion es o no un parametro acustico fiable para la validacion de un modelo virtual de una sala de cine. Anteriormente se han realizado proyectos iguales de otras salas de diferente tamano de Kinepolis. El objetivo de realizar el mismo estudio en distintas salas, es comprobar si el tamano de la sala influye en la validacion de los modelos virtuales mediante el tiempo de reverberacion. ABSTRACT. This Project consists on the development of an acoustic research of the movie theater 8 of the Kinepolis complex in Ciudad de la Imagen, Madrid. This room has 408 spots. Kinepolis is one of the biggest multiplex complexes in Europe. It has 9,200 locations disposed in 25 rooms. There are two large corridors which give access to all of theaters. In the middle of the structure, there is the main hall that connects these corridors. In 1998, at the time when the complex was open, it was awarded with the Record Guinness for the biggest theater in the world, which has 996 locations. The target of this project is to successfully characterize the acoustics of a movie theater through reverberation time and a virtual model. In order to reach this goal, in the first place, we are going to perform both, an acoustic and a geometric measurement of the room using DIRAC measurement system. The results of these measures will allow us to build and validate a virtual model of the room, using the simulation software EASE. We are going to use the DIRAC system in order to accomplish the acoustic measure. This operation gives us a huge variety of acoustic parameters. Not all of these are going to be used for this research, only the most significant ones. These are described in the theoretical introduction. The geometric measure is essential to help us to build the virtual model, because the model has to be exactly equal as the real room. This measurement will be performed with an electronic distance meter and a measuring tape. Once the virtual model is finished, it will be proved. This validation process will be realized by adjusting the reverberation time in the model. We will change the walls materials, therefore, the overall absorption of the room will change. We want the model reverberation time resemble to the real one. This practice is going to ensure that the model acoustic performance is close to the real one. In addition, it has to be successfully validate of we want the future comparisons to be reliable. Finally, after the model virtual simulation, we will compare the simulated results with the measure in the room. In this process, we will compare not only the reverberation time, but others parameters that keep relation with the reverberation time. We will verify this way, if the reverberation time is or is not an appropriate acoustic parameter to validate a virtual model of a movie theater. There have been done others similar acoustic researches in different theaters with different sizes. The aim of performing similar researches in different rooms is to determine if the size of the room infers in the validation process.
Resumo:
The objective of this work was to study the effect of two technical modifications (supplemented with sponge materials (ES) and provided with a filter system (FIL))in continuous-culture fermenters on the microbial populations and ruminal fermentation parameters over the sampling period. Six fermenters fed a 50:50 alfalfa hay: concentrate diet, inoculated with rumen liquor from sheep fed the same diet, were used in two incubation runs of 14 days each. On days 10 and 14, samples were taken for analysis of fermentation parameters (volatile fatty acids, ammonia-N and lactate) and microbial populations. None of the technical modification affected (P>0.05) concentrations of bacterial DNA and the relative abundance of fungi and archaea, but protozoal DNA concentrations were higher (P>0.05) in ES and FIL fermenters than in the control ones. However, values of protozoal DNA were about 50 times lower than in the rumen fluid used as inoculum for the ermenters. The tested technical modifications did not affect (P>0.05) any fermentation parameter, and there were no differences in fermentation parameters between days 10 and 14, with the exception of lactate production which was higher (P=0.009) on day 14 than on day 10. In conclusion, the technical modifications tested maintained protozoa in continuous culture fermenters without any effect on fermentation parameters and other microbial populations, but protozoa concentrations were still lower than those in the rumen.
Resumo:
Esta tesis analiza los elementos que afectan a la evaluación del rendimiento dentro de la técnica de radiodiagnóstico mediante tomografía por emisión de positrones (PET), centrándose en escáneres preclínicos. Se exploran las posibilidades de los protocolos estándar de evaluación sobre los siguientes aspectos: su uso como herramienta para validar programas de simulación Montecarlo, como método para la comparación de escáneres y su validez en el estudio del efecto sobre la calidad de imagen al utilizar radioisótopos alternativos. Inicialmente se estudian los métodos de evaluación orientados a la validación de simulaciones PET, para ello se presenta el programa GAMOS como entorno de simulación y se muestran los resultados de su validación basada en el estándar NEMA NU 4-2008 para escáneres preclínicos. Esta validación se ha realizado mediante la comparación de los resultados simulados frente a adquisiciones reales en el equipo ClearPET, describiendo la metodología de evaluación y selección de los parámetros NEMA. En este apartado también se mencionan las aportaciones desarrolladas en GAMOS para aplicaciones PET, como la inclusión de herramientas para la reconstrucción de imágenes. Por otro lado, la evaluación NEMA del ClearPET es utilizada para comparar su rendimiento frente a otro escáner preclínico: el sistema rPET-1. Esto supone la primera caracterización NEMA NU 4 completa de ambos equipos; al mismo tiempo que se analiza cómo afectan las importantes diferencias de diseño entre ellos, especialmente el tamaño axial del campo de visión y la configuración de los detectores. El 68Ga es uno de los radioisótopos no convencionales en imagen PET que está experimentando un mayor desarrollo, sin embargo, presenta la desventaja del amplio rango o distancia recorrida por el positrón emitido. Además del rango del positrón, otra propiedad física característica de los radioisótopos PET que puede afectar a la imagen es la emisión de fotones gamma adicionales, tal como le ocurre al isótopo 48V. En esta tesis se evalúan dichos efectos mediante estudios de resolución espacial y calidad de imagen NEMA. Finalmente, se analiza el alcance del protocolo NEMA NU 4-2008 cuando se utiliza para este propósito, adaptándolo a tal fin y proponiendo posibles modificaciones. Abstract This thesis analyzes the factors affecting the performance evaluation in positron emission tomography (PET) imaging, focusing on preclinical scanners. It explores the possibilities of standard protocols of assessment on the following aspects: their use as tools to validate Monte Carlo simulation programs, their usefulness as a method for comparing scanners and their validity in the study of the effect of alternative radioisotopes on image quality. Initially we study the methods of performance evaluation oriented to validate PET simulations. For this we present the GAMOS program as a simulation framework and show the results of its validation based on the standard NEMA NU 4-2008 for preclinical PET scanners. This has been accomplished by comparing simulated results against experimental acquisitions in the ClearPET scanner, describing the methodology for the evaluation and selection of NEMA parameters. This section also mentions the contributions developed in GAMOS for PET applications, such as the inclusion of tools for image reconstruction. Furthermore, the evaluation of the ClearPET scanner is used to compare its performance against another preclinical scanner, specifically the rPET-1 system. This is the first complete NEMA NU 4 based characterization study of both systems. At the same time we analyze how do the significant design differences of these two systems, especially the size of the axial field of view and the detectors configuration affect their performance characteristics. 68Ga is one of the unconventional radioisotopes in PET imaging the use of which is currently significantly increasing; however, it presents the disadvantage of the long positron range (distance traveled by the emitted positron before annihilating with an electron). Besides the positron range, additional gamma photon emission is another physical property characteristic of PET radioisotopes that can affect the reconstructed image quality, as it happens to the isotope 48V. In this thesis we assess these effects through studies of spatial resolution and image quality. Finally, we analyze the scope of the NEMA NU 4-2008 to carry out such studies, adapting it and proposing possible modifications.
Resumo:
A nivel mundial, el cáncer de mama es el tipo de cáncer más frecuente además de una de las principales causas de muerte entre la población femenina. Actualmente, el método más eficaz para detectar lesiones mamarias en una etapa temprana es la mamografía. Ésta contribuye decisivamente al diagnóstico precoz de esta enfermedad que, si se detecta a tiempo, tiene una probabilidad de curación muy alta. Uno de los principales y más frecuentes hallazgos en una mamografía, son las microcalcificaciones, las cuales son consideradas como un indicador importante de cáncer de mama. En el momento de analizar las mamografías, factores como la capacidad de visualización, la fatiga o la experiencia profesional del especialista radiólogo hacen que el riesgo de omitir ciertas lesiones presentes se vea incrementado. Para disminuir dicho riesgo es importante contar con diferentes alternativas como por ejemplo, una segunda opinión por otro especialista o un doble análisis por el mismo. En la primera opción se eleva el coste y en ambas se prolonga el tiempo del diagnóstico. Esto supone una gran motivación para el desarrollo de sistemas de apoyo o asistencia en la toma de decisiones. En este trabajo de tesis se propone, se desarrolla y se justifica un sistema capaz de detectar microcalcificaciones en regiones de interés extraídas de mamografías digitalizadas, para contribuir a la detección temprana del cáncer demama. Dicho sistema estará basado en técnicas de procesamiento de imagen digital, de reconocimiento de patrones y de inteligencia artificial. Para su desarrollo, se tienen en cuenta las siguientes consideraciones: 1. Con el objetivo de entrenar y probar el sistema propuesto, se creará una base de datos de imágenes, las cuales pertenecen a regiones de interés extraídas de mamografías digitalizadas. 2. Se propone la aplicación de la transformada Top-Hat, una técnica de procesamiento digital de imagen basada en operaciones de morfología matemática. La finalidad de aplicar esta técnica es la de mejorar el contraste entre las microcalcificaciones y el tejido presente en la imagen. 3. Se propone un algoritmo novel llamado sub-segmentación, el cual está basado en técnicas de reconocimiento de patrones aplicando un algoritmo de agrupamiento no supervisado, el PFCM (Possibilistic Fuzzy c-Means). El objetivo es encontrar las regiones correspondientes a las microcalcificaciones y diferenciarlas del tejido sano. Además, con la finalidad de mostrar las ventajas y desventajas del algoritmo propuesto, éste es comparado con dos algoritmos del mismo tipo: el k-means y el FCM (Fuzzy c-Means). Por otro lado, es importante destacar que en este trabajo por primera vez la sub-segmentación es utilizada para detectar regiones pertenecientes a microcalcificaciones en imágenes de mamografía. 4. Finalmente, se propone el uso de un clasificador basado en una red neuronal artificial, específicamente un MLP (Multi-layer Perceptron). El propósito del clasificador es discriminar de manera binaria los patrones creados a partir de la intensidad de niveles de gris de la imagen original. Dicha clasificación distingue entre microcalcificación y tejido sano. ABSTRACT Breast cancer is one of the leading causes of women mortality in the world and its early detection continues being a key piece to improve the prognosis and survival. Currently, the most reliable and practical method for early detection of breast cancer is mammography.The presence of microcalcifications has been considered as a very important indicator ofmalignant types of breast cancer and its detection and classification are important to prevent and treat the disease. However, the detection and classification of microcalcifications continue being a hard work due to that, in mammograms there is a poor contrast between microcalcifications and the tissue around them. Factors such as visualization, tiredness or insufficient experience of the specialist increase the risk of omit some present lesions. To reduce this risk, is important to have alternatives such as a second opinion or a double analysis for the same specialist. In the first option, the cost increases and diagnosis time also increases for both of them. This is the reason why there is a great motivation for development of help systems or assistance in the decision making process. This work presents, develops and justifies a system for the detection of microcalcifications in regions of interest extracted fromdigitizedmammographies to contribute to the early detection of breast cancer. This systemis based on image processing techniques, pattern recognition and artificial intelligence. For system development the following features are considered: With the aim of training and testing the system, an images database is created, belonging to a region of interest extracted from digitized mammograms. The application of the top-hat transformis proposed. This image processing technique is based on mathematical morphology operations. The aim of this technique is to improve the contrast betweenmicrocalcifications and tissue present in the image. A novel algorithm called sub-segmentation is proposed. The sub-segmentation is based on pattern recognition techniques applying a non-supervised clustering algorithm known as Possibilistic Fuzzy c-Means (PFCM). The aim is to find regions corresponding to the microcalcifications and distinguish them from the healthy tissue. Furthermore,with the aim of showing themain advantages and disadvantages this is compared with two algorithms of same type: the k-means and the fuzzy c-means (FCM). On the other hand, it is important to highlight in this work for the first time the sub-segmentation is used for microcalcifications detection. Finally, a classifier based on an artificial neural network such as Multi-layer Perceptron is used. The purpose of this classifier is to discriminate froma binary perspective the patterns built from gray level intensity of the original image. This classification distinguishes between microcalcifications and healthy tissue.