976 resultados para False-medideira caterpillar


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Elasmobranchs comprising sharks, skates and rays have traditionally formed an important fishery along the Indian coast. Since 2000, Indian shark fishermen are shifting their fishing operations to deeper/oceanic waters by conducting multi-day fishing trips, which has resulted in considerable changes in the species composition of the landings vis- a-vis those reported during the 1980’s and 1990’s. A case study at Cochin Fisheries Harbour (CFH), southwest coast of India during 2008-09 indicated that besides the existing gillnet–cum- hooks & line and longline fishery for sharks, a targeted fishery at depths >300-1000 m for gulper sharks (Centrophorus spp.) has emerged. In 2008, the chondrichthyan landings (excluding batoids) were mainly constituted by offshore and deep-sea species such as Alopias superciliosus (24.2%), Carcharhinus limbatus (21.1%), Echinorhinus brucus (8.2%), Galeocerdo cuvier (5.4%), Centrophorus spp. (7.3%) and Neoharriotta pinnata (4.2%) while the contribution by the coastal species such as Sphyrna lewini (14.8%), Carcharhinus sorrah (1.4%) and other Carcharhinus spp. has reduced. Several deep-sea sharks previously not recorded in the landings at Cochin were also observed during 2008-09. It includes Hexanchus griseus, Deania profundorum, Zameus squamulosus and Pygmy false catshark (undescribed) which have been reported for the first time from Indian waters. Life history characteristics of the major fished species are discussed in relation to the fishery and its possible impacts on the resource

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aktuelle Entwicklungen auf dem Gebiet der zielgerichteten Therapie zur Behandlung maligner Erkrankungen erfordern neuartige Verfahren zur Diagnostik und Selektion geeigneter Patienten. So ist das Ziel der vorliegenden Arbeit die Identifizierung neuer Zielmoleküle, die die Vorhersage eines Therapieerfolges mit targeted drugs ermöglichen. Besondere Aufmerksamkeit gilt dem humanisierten monoklonalen Antikörper Trastuzumab (Herceptin), der zur Therapie Her-2 überexprimierender, metastasierter Mammakarzinome eingesetzt wird. Jüngste Erkenntnisse lassen eine Anwendung dieses Medikamentes in der Behandlung des Hormon-unabhängigen Prostatakarzinoms möglich erscheinen. Therapie-beeinflussende Faktoren werden in der dem Rezeptor nachgeschalteten Signaltransduktion oder Veränderungen des Rezeptors selbst vermutet. Mittels Immunhistochemie wurden die Expressions- und Aktivierungsniveaus verschiedener Proteine der Her-2-assoziierten Signaltransduktion ermittelt; insgesamt wurden 37 molekulare Marker untersucht. In Formalin fixierte und in Paraffin eingebettete korrespondierende Normal- und Tumorgewebe von 118 Mammakarzinom-Patientinnen sowie 78 Patienten mit Prostatakarzinom wurden in TMAs zusammengefasst. Die in Zusammenarbeit mit erfahrenen Pathologen ermittelten Ergebnisse dienten u.a. als Grundlage für zweidimensionales, unsupervised hierarchisches clustering. Ergebnis dieser Analysen war für beide untersuchten Tumorentitäten die Möglichkeit einer Subklassifizierung der untersuchten Populationen nach molekularen Eigenschaften. Hierbei zeigten sich jeweils neue Möglichkeiten zur Anwendung zielgerichteter Therapien, deren Effektivität Inhalt weiterführender Studien sein könnte. Zusätzlich wurden an insgesamt 43 Frischgeweben die möglichen Folgen des sog. shedding untersucht. Western Blot-basierte Untersuchungen zeigten hierbei die Möglichkeit der Selektion von Patienten aufgrund falsch-positiver Befunde in der derzeit als Standard geltenden Diagnostik. Zusätzlich konnte durch Vergleich mit einer Herceptin-sensitiven Zelllinie ein möglicher Zusammenhang eines Therapieerfolges mit dem Phosphorylierungs-/ Aktivierungszustand des Rezeptors ermittelt werden. Fehlende klinische Daten zum Verlauf der Erkrankung und Therapie der untersuchten Patienten lassen keine Aussagen über die tatsächliche Relevanz der ermittelten Befunde zu. Dennoch verdeutlichen die erhaltenen Resultate eindrucksvoll die Komplexität der molekularen Vorgänge, die zu einem Krebsgeschehen führen und damit Auswirkungen auf die Wirksamkeit von targeted drugs haben können. Entwicklungen auf dem Gebiet der zielgerichteten Therapie erfordern Verbesserungen auf dem Gebiet der Diagnostik, die die sichere Selektion geeigneter Patienten erlauben. Die Zukunft der personalisierten, zielgerichteten Behandlung von Tumorerkrankungen wird verstärkt von molekularen Markerprofilen hnlich den hier vorgestellten Daten beeinflusst werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With this document, we provide a compilation of in-depth discussions on some of the most current security issues in distributed systems. The six contributions have been collected and presented at the 1st Kassel Student Workshop on Security in Distributed Systems (KaSWoSDS’08). We are pleased to present a collection of papers not only shedding light on the theoretical aspects of their topics, but also being accompanied with elaborate practical examples. In Chapter 1, Stephan Opfer discusses Viruses, one of the oldest threats to system security. For years there has been an arms race between virus producers and anti-virus software providers, with no end in sight. Stefan Triller demonstrates how malicious code can be injected in a target process using a buffer overflow in Chapter 2. Websites usually store their data and user information in data bases. Like buffer overflows, the possibilities of performing SQL injection attacks targeting such data bases are left open by unwary programmers. Stephan Scheuermann gives us a deeper insight into the mechanisms behind such attacks in Chapter 3. Cross-site scripting (XSS) is a method to insert malicious code into websites viewed by other users. Michael Blumenstein explains this issue in Chapter 4. Code can be injected in other websites via XSS attacks in order to spy out data of internet users, spoofing subsumes all methods that directly involve taking on a false identity. In Chapter 5, Till Amma shows us different ways how this can be done and how it is prevented. Last but not least, cryptographic methods are used to encode confidential data in a way that even if it got in the wrong hands, the culprits cannot decode it. Over the centuries, many different ciphers have been developed, applied, and finally broken. Ilhan Glogic sketches this history in Chapter 6.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wheat as the major cereal crop in Egypt is the core of the government's food security policy. But there are rapid losses of the genetic resources of the country as a result of ongoing modernization and development. Thus we compiled the largest possible number of Egyptian accessions preserved in the world gene banks. In the present study we collected nearly 1000 Egyptian wheat accessions. A part from the Triticum species of the Egyptian flora four species have been found, which were recorded for the first time T. turanicum, T. compactum, T. polonicum and T. aethiopicum. To classify the Egyptian wheat species using morphological studies, 108 accessions were selected. Thereafter, these accessions were cultivated and evaluated morphologically to confirm the validity of the classified species. During the morphological evaluation study, a new case was noticed for the number of glumes in one of the Egyptian wheat accessions. Three glumes per spikelet were observed in a branched spike. This led us to assess the phenomenon in all varieties with branching spikes within the genus Triticum. All varieties which have branching spikes at least in some spikletes have three glumes. We considered the case of the third glume as indicator for the domestication syndrome. Also, a new case of other forms of branching in the genus Triticum was investigated, which was a compromise between true and false-branching. We called it true-false branching. Comparative anatomical studies were carried out between Egyptian Triticum species to investigate the possibility of using anatomical features to classify the Egyptian wheat species. It was concluded that it is difficult to use anatomical features alone to differentiate between two Triticum species, especially when they belong to the same ploidy level. A key for the identification of Egyptian Triticum taxa was established.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit beschäftigt sich mit der Frage, wie Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken können und welche Leistungen von ihnen erbracht werden können. Dabei wird der Fokus darauf gerichtet, ob mit einer optimalen organisatorischen und methodischen Herangehensweise ein Inventar historischer Kulturlandschaftselemente erstellt werden kann, das auch den Anforderungen für eine planerische Anwendung genügt. Forschungsschwerpunkte der Arbeit sind entsprechend die Inventarisierung historischer Kulturlandschaftselemente und die Anforderungen an die dabei erstellten Inventare sowie die Möglichkeiten für bürgerschaftliches Engagement bei der Inventarisierung. Darüber hinaus wird der Frage nachgegangen, ob mit dem bürgerschaftlichen Engagement bei der Inventarisierung ein sonstiger Mehrwert verbunden ist. Die Untersuchung wird anhand von Fallstudien durchgeführt. Empirische Grundlage sind acht ausgewählte Beispielprojekte, in denen Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken bzw. diese durchführen. Um einen möglichst großen Erfahrungspool zu erschließen wurden Fallbeispiele gewählt, die sich u. a. hinsichtlich der Rahmenbedingungen, der Organisationsstrukturen, dem Maß und der Art der Mitwirkung von Bürgern unterscheiden. Die detaillierte Analyse dieser Projekte und die Evaluierung der in ihrem Rahmen erstellten Inventare ist Hauptgegenstand dieser Arbeit und eine Grundlage für die Entwicklung von Empfehlungen für bürgerschaftliches Engagement bei der Inventarisierung historischer Kulturlandschaftselemente. Die Datenerhebung für die Analyse und Evaluierung erfolgt in erster Linie mittels Befragungen. Die Untersuchung zeigt, dass durch bürgerschaftliches Engagement wertvolle Beiträge zur Inventarisierung historischer Kulturlandschaftselemente geleistet werden können. In der Bevölkerung gibt es sowohl Interesse an der aktiven Mitwirkung als auch Kompetenzen, um unter Anleitung historische Kulturlandschaftselemente zu erfassen. Es müssen jedoch einige methodische Hinweise berücksichtigt und Maßnahmen getroffen werden, um Defizite, die sich durch die Erfassung durch Freiwillige ergeben können, zu vermeiden. So ist es bspw. zwingend notwendig, organisatorische Strukturen, Methoden und Standards vorzugeben, die Freiwilligen anzuleiten und ggf. zu unterstützen sowie die erhobenen Daten zu prüfen und in einem gewissen Umfang auch zu qualifizieren. Wenn die Inventarisierungen von Fachexperten aufgebaut und gesteuert werden, kann verhindert werden, dass die methodische Vorgehensweise von den fachlichen Anforderungen abweicht, und dass falsch erhobene und bewertete Daten verbreitet werden. Nicht von der Hand zu weisen ist der hohe Organisations- und Betreuungsaufwand sowie der Aufwand zur Prüfung und Nachbesserung der Daten, der mit der Beteiligung von Bürgern einhergeht. Doch selbst wenn die erfassten Daten der Bürger nur eine Grundlage bilden, die geprüft und für eine planerische Verwendung weiter qualifiziert werden muss, können durch die Einbindung von Bürgern wichtige Beiträge zum Erhalt der Kulturlandschaft geleistet werden. Neben der Datenerfassung werden zahlreiche Bürger für das Themenfeld Kulturlandschaft sensibilisiert, so dass die Anliegen zum Erhalt der Kulturlandschaft in weiten Teilen der Bevölkerung an Bedeutung gewinnen und verankert werden können. Um das Potenzial bürgerschaftlichen Engagements für die Inventarisierung historischer Kulturlandschaftselemente optimal nutzen zu können, und um möglichst bundes- oder landesweit einheitliche Inventare zu erstellen die Akzeptanz finden und für die Planung und weitere Anwendungszwecke genutzt werden, besteht noch Entwicklungs- und Abstimmungsbedarf. Manche Entwicklungen stehen nicht in Zusammenhang mit der Beteiligung von Bürgern, sondern sind generell notwendig, um einheitliche und möglichst landes- oder gar bundesweite Inventarisierungen historischer Kulturlandschaftselemente zu realisieren. Dies betrifft z. B. die Konsensfindung unter den Behörden und Fachstellen bezüglich methodischer Fragen und der Zuständigkeiten oder die Entwicklung eines geeigneten GIS-basierten Online-Inventars.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der psycholinguistischen Forschung ist die Annahme weitverbreitet, dass die Bewertung von Informationen hinsichtlich ihres Wahrheitsgehaltes oder ihrer Plausibilität (epistemische Validierung; Richter, Schroeder & Wöhrmann, 2009) ein strategischer, optionaler und dem Verstehen nachgeschalteter Prozess ist (z.B. Gilbert, 1991; Gilbert, Krull & Malone, 1990; Gilbert, Tafarodi & Malone, 1993; Herbert & Kübler, 2011). Eine zunehmende Anzahl an Studien stellt dieses Zwei-Stufen-Modell von Verstehen und Validieren jedoch direkt oder indirekt in Frage. Insbesondere Befunde zu Stroop-artigen Stimulus-Antwort-Kompatibilitätseffekten, die auftreten, wenn positive und negative Antworten orthogonal zum aufgaben-irrelevanten Wahrheitsgehalt von Sätzen abgegeben werden müssen (z.B. eine positive Antwort nach dem Lesen eines falschen Satzes oder eine negative Antwort nach dem Lesen eines wahren Satzes; epistemischer Stroop-Effekt, Richter et al., 2009), sprechen dafür, dass Leser/innen schon beim Verstehen eine nicht-strategische Überprüfung der Validität von Informationen vornehmen. Ausgehend von diesen Befunden war das Ziel dieser Dissertation eine weiterführende Überprüfung der Annahme, dass Verstehen einen nicht-strategischen, routinisierten, wissensbasierten Validierungsprozesses (epistemisches Monitoring; Richter et al., 2009) beinhaltet. Zu diesem Zweck wurden drei empirische Studien mit unterschiedlichen Schwerpunkten durchgeführt. Studie 1 diente der Untersuchung der Fragestellung, ob sich Belege für epistemisches Monitoring auch bei Informationen finden lassen, die nicht eindeutig wahr oder falsch, sondern lediglich mehr oder weniger plausibel sind. Mithilfe des epistemischen Stroop-Paradigmas von Richter et al. (2009) konnte ein Kompatibilitätseffekt von aufgaben-irrelevanter Plausibilität auf die Latenzen positiver und negativer Antworten in zwei unterschiedlichen experimentellen Aufgaben nachgewiesen werden, welcher dafür spricht, dass epistemisches Monitoring auch graduelle Unterschiede in der Übereinstimmung von Informationen mit dem Weltwissen berücksichtigt. Darüber hinaus belegen die Ergebnisse, dass der epistemische Stroop-Effekt tatsächlich auf Plausibilität und nicht etwa auf der unterschiedlichen Vorhersagbarkeit von plausiblen und unplausiblen Informationen beruht. Das Ziel von Studie 2 war die Prüfung der Hypothese, dass epistemisches Monitoring keinen evaluativen Mindset erfordert. Im Gegensatz zu den Befunden anderer Autoren (Wiswede, Koranyi, Müller, Langner, & Rothermund, 2013) zeigte sich in dieser Studie ein Kompatibilitätseffekt des aufgaben-irrelevanten Wahrheitsgehaltes auf die Antwortlatenzen in einer vollständig nicht-evaluativen Aufgabe. Die Ergebnisse legen nahe, dass epistemisches Monitoring nicht von einem evaluativen Mindset, möglicherweise aber von der Tiefe der Verarbeitung abhängig ist. Studie 3 beleuchtete das Verhältnis von Verstehen und Validieren anhand einer Untersuchung der Online-Effekte von Plausibilität und Vorhersagbarkeit auf Augenbewegungen beim Lesen kurzer Texte. Zusätzlich wurde die potentielle Modulierung dieser Effeke durch epistemische Marker, die die Sicherheit von Informationen anzeigen (z.B. sicherlich oder vielleicht), untersucht. Entsprechend der Annahme eines schnellen und nicht-strategischen epistemischen Monitoring-Prozesses zeigten sich interaktive Effekte von Plausibilität und dem Vorhandensein epistemischer Marker auf Indikatoren früher Verstehensprozesse. Dies spricht dafür, dass die kommunizierte Sicherheit von Informationen durch den Monitoring-Prozess berücksichtigt wird. Insgesamt sprechen die Befunde gegen eine Konzeptualisierung von Verstehen und Validieren als nicht-überlappenden Stufen der Informationsverarbeitung. Vielmehr scheint eine Bewertung des Wahrheitsgehalts oder der Plausibilität basierend auf dem Weltwissen – zumindest in gewissem Ausmaß – eine obligatorische und nicht-strategische Komponente des Sprachverstehens zu sein. Die Bedeutung der Befunde für aktuelle Modelle des Sprachverstehens und Empfehlungen für die weiterführende Forschung zum Vehältnis von Verstehen und Validieren werden aufgezeigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the present research, we investigated effects of existential threat on veracity judgments. According to several meta-analyses, people judge potentially deceptive messages of other people as true rather than as false (so-called truth bias). This judgmental bias has been shown to depend on how people weigh the error of judging a true message as a lie (error 1) and the error of judging a lie as a true message (error 2). The weight of these errors has been further shown to be affected by situational variables. Given that research on terror management theory has found evidence that mortality salience (MS) increases the sensitivity toward the compliance of cultural norms, especially when they are of focal attention, we assumed that when the honesty norm is activated, MS affects judgmental error weighing and, consequently, judgmental biases. Specifically, activating the norm of honesty should decrease the weight of error 1 (the error of judging a true message as a lie) and increase the weight of error 2 (the error of judging a lie as a true message) when mortality is salient. In a first study, we found initial evidence for this assumption. Furthermore, the change in error weighing should reduce the truth bias, automatically resulting in better detection accuracy of actual lies and worse accuracy of actual true statements. In two further studies, we manipulated MS and honesty norm activation before participants judged several videos containing actual truths or lies. Results revealed evidence for our prediction. Moreover, in Study 3, the truth bias was increased after MS when group solidarity was previously emphasized.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Object recognition is complicated by clutter, occlusion, and sensor error. Since pose hypotheses are based on image feature locations, these effects can lead to false negatives and positives. In a typical recognition algorithm, pose hypotheses are tested against the image, and a score is assigned to each hypothesis. We use a statistical model to determine the score distribution associated with correct and incorrect pose hypotheses, and use binary hypothesis testing techniques to distinguish between them. Using this approach we can compare algorithms and noise models, and automatically choose values for internal system thresholds to minimize the probability of making a mistake.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerous psychophysical experiments have shown an important role for attentional modulations in vision. Behaviorally, allocation of attention can improve performance in object detection and recognition tasks. At the neural level, attention increases firing rates of neurons in visual cortex whose preferred stimulus is currently attended to. However, it is not yet known how these two phenomena are linked, i.e., how the visual system could be "tuned" in a task-dependent fashion to improve task performance. To answer this question, we performed simulations with the HMAX model of object recognition in cortex [45]. We modulated firing rates of model neurons in accordance with experimental results about effects of feature-based attention on single neurons and measured changes in the model's performance in a variety of object recognition tasks. It turned out that recognition performance could only be improved under very limited circumstances and that attentional influences on the process of object recognition per se tend to display a lack of specificity or raise false alarm rates. These observations lead us to postulate a new role for the observed attention-related neural response modulations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Detecting changes between images of the same scene taken at different times is of great interest for monitoring and understanding the environment. It is widely used for on-land application but suffers from different constraints. Unfortunately, Change detection algorithms require highly accurate geometric and photometric registration. This requirement has precluded their use in underwater imagery in the past. In this paper, the change detection techniques available nowadays for on-land application were analyzed and a method to automatically detect the changes in sequences of underwater images is proposed. Target application scenarios are habitat restoration sites, or area monitoring after sudden impacts from hurricanes or ship groundings. The method is based on the creation of a 3D terrain model from one image sequence over an area of interest. This model allows for synthesizing textured views that correspond to the same viewpoints of a second image sequence. The generated views are photometrically matched and corrected against the corresponding frames from the second sequence. Standard change detection techniques are then applied to find areas of difference. Additionally, the paper shows that it is possible to detect false positives, resulting from non-rigid objects, by applying the same change detection method to the first sequence exclusively. The developed method was able to correctly find the changes between two challenging sequences of images from a coral reef taken one year apart and acquired with two different cameras

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este documental pretende reconstruir la memoria de las víctimas de la detención masiva ocurrida en la población de Quinchía, Risaralda el 28 de Septiembre de 2003. Con el fin de analizar las consecuencias de las acciones llevadas a cabo por el Estado colombiano, encaminadas a capturar miembros de la insurgencia en las diferentes regiones del país, surgió la idea de realizar este trabajo. El documental se concentró en el fenómeno de las detenciones masivas producidas en el primer mandato del presidente Álvaro Uribe Vélez, quien en su política de Seguridad Democrática, ha procurado acabar con el flagelo de los grupos armados ilegales, especialmente con la guerrilla, a través de organismos estatales como Ejército, Policía y Fiscalía, quienes se dieron a la tarea de perseguir a los insurgentes y a sus colaboradores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One of the techniques used to detect faults in dynamic systems is analytical redundancy. An important difficulty in applying this technique to real systems is dealing with the uncertainties associated with the system itself and with the measurements. In this paper, this uncertainty is taken into account by the use of intervals for the parameters of the model and for the measurements. The method that is proposed in this paper checks the consistency between the system's behavior, obtained from the measurements, and the model's behavior; if they are inconsistent, then there is a fault. The problem of detecting faults is stated as a quantified real constraint satisfaction problem, which can be solved using the modal interval analysis (MIA). MIA is used because it provides powerful tools to extend the calculations over real functions to intervals. To improve the results of the detection of the faults, the simultaneous use of several sliding time windows is proposed. The result of implementing this method is semiqualitative tracking (SQualTrack), a fault-detection tool that is robust in the sense that it does not generate false alarms, i.e., if there are false alarms, they indicate either that the interval model does not represent the system adequately or that the interval measurements do not represent the true values of the variables adequately. SQualTrack is currently being used to detect faults in real processes. Some of these applications using real data have been developed within the European project advanced decision support system for chemical/petrochemical manufacturing processes and are also described in this paper

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Not considered in the analytical model of the plant, uncertainties always dramatically decrease the performance of the fault detection task in the practice. To cope better with this prevalent problem, in this paper we develop a methodology using Modal Interval Analysis which takes into account those uncertainties in the plant model. A fault detection method is developed based on this model which is quite robust to uncertainty and results in no false alarm. As soon as a fault is detected, an ANFIS model is trained in online to capture the major behavior of the occurred fault which can be used for fault accommodation. The simulation results understandably demonstrate the capability of the proposed method for accomplishing both tasks appropriately

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The design of control, estimation or diagnosis algorithms most often assumes that all available process variables represent the system state at the same instant of time. However, this is never true in current network systems, because of the unknown deterministic or stochastic transmission delays introduced by the communication network. During the diagnosing stage, this will often generate false alarms. Under nominal operation, the different transmission delays associated with the variables that appear in the computation form produce discrepancies of the residuals from zero. A technique aiming at the minimisation of the resulting false alarms rate, that is based on the explicit modelling of communication delays and on their best-case estimation is proposed

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El tamizaje combinado prenatal de primer trimestre para la detección de aneuploidías, ajusta la edad materna, la medida de sonolucencia nucal fetal y concentraciones séricas maternas de PAPP-A y B-hCG para calcular este riesgo. Se han observado variaciones en los MoM s de los analítos séricos maternos de acuerdo a variables como raza, peso, numero de fetos y técnicas de reproducción asistida. Objetivo: calcular los valores de PAPP-A y B-hCG y sus MoM s en la población estudiada comparándolos con población caucásica, evaluando el desempeño de la prueba. Metodología: este es un estudio retrospectivo realizado en 926 mujeres embarazadas con 10 a 13,6 semanas. Se calculan concentraciones séricas y MoM s corregidos para peso, raza y técnicas de reproducción asistida de la PAPP-A y B-hCG, el riesgo de presentar síndrome Down al nacimiento, sensibilidad y tasa de falsos positivos para la prueba. Resultados: la edad materna media fue de 33,6 años (rango entre 20 y 45 años). Los MoM s de PAPP-A fueron 11,8% inferiores respecto a la población caucásica. El 9.4% de las pacientes obtuvieron un riesgo positivo y el 3,3% presento alteraciones citogenéticas en el cariotipo fetal. La sensibilidad del tamizaje fue del 100% con una tasa de falsos positivos del 5,7% en un punto de corte de 1 en 250. Conclusión: el tamizaje combinado de primer trimestre es un método efectivo para la detección de aneuploidías. Los MoM s de la PAPP-A son un 11,8% inferiores en la población estudiada y esto debe ajustarse para disminuir la tasa de resultados falsos positivos.