1000 resultados para métodos de caminhos críticos
Resumo:
(Excerto) Será que o estudo do Jornalismo “pode ser justificado como uma forma de conhecimento, uma porta de entrada no currículo, uma actividade a que alguém possa dedicar de forma útil a sua vida profissional?”. A pergunta, formulada já lá vão 25 anos por James Carey, a propósito da História do Jornalismo, é daquelas que nunca encontram uma resposta satisfatória, para quem se interroga acerca do sentido e alcance daquilo que faz. E se bem que não faça muito sentido trazê-la quotidianamente como companheira de viagem, não deixa de ser salutar que, de quando em vez, de forma espontânea ou em contexto mais formal, nos confrontemos com ela e nos deixemos por ela desafiar. O relatório que o leitor tem diante de si é - ou resulta de - um desses momentos, no caso, decorrente de uma exigência do Estatuto da Carreira Docente Universitária, que constituiu para nós uma excelente oportunidade de reflectir sobre uma das actividades que ocupa boa parte das nossas energias quotidianas, no plano profissional. A disciplina que elegemos foi a de Jornalismo, que, como teremos ocasião de desenvolver mais adiante, leccionamos no Curso de Comunicação Social da Universidade do Minho. Guiados pelo que a lei estabelece e pelo que os usos e costumes ensinam, concebemos este relatório de modo a proporcionar ao leitor uma percepção de alguns referenciais acerca do modo como entendemos o Jornalismo; um enquadramento da disciplina no ensino universitário português e no Curso específico em que na nossa Universidade ela se insere; uma apresentação do programa, considerando, nomeadamente, a sua lógica, os conteúdos programáticos, as metodologias e recursos de trabalho e os processos de avaliação; e, finalmente, uma nota final de reflexão e de prospectiva.
Resumo:
Dissertação de mestrado integrado em Engenharia Civil
Resumo:
OBJETIVO: Avaliar os diferentes métodos de quantificação de insuficiência mitral (IM) ao ecocardiograma transesofágico (ETE) em pacientes com suspeita clínica de disfunção de prótese mitral. MÉTODOS: Foram estudados 15 pacientes, divididos em dois grupos, conforme a presença ou não de IM expressiva (grau importante) ao cateterismo cardíaco (Cate). A IM foi quantificada ao ETE pelos seguintes métodos, habitualmente empregados para IM de valvas nativas: avaliação subjetiva do jato regurgitante ao mapeamento de fluxo a cores, avaliação objetiva com base na área absoluta do jato regurgitante e na sua área relativa (área do jato/área do átrio esquerdo (AE)), e avaliação baseada na presença de fluxo sistólico reverso em veia pulmonar. RESULTADOS: A IM foi predominantemente de origem transprotética (14 pacientes) e de distribuição excêntrica (11 pacientes). Observou-se concordância estatisticamente significante (p<0,05) entre IM expressiva ao Cate (8 pacientes) e ao ETE pela avaliação subjetiva e presença de fluxo sistólico reverso em veia pulmonar. As avaliações pelas áreas absoluta (área de jato >7cm²) e relativa (área de jato >35% da área do AE) não mostraram concordância significante com o Cate, com nítida subestimação ao ETE pela área relativa. Houve, porém, concordância significante, quando considerado como IM expressiva, jato cuja área relativa foi >30% da área do AE. CONCLUSÃO: O ETE identificou adequadamente as IM protéticas angiograficamente expressivas, particularmente pelos métodos subjetivo e de fluxo sistólico reverso em veia pulmonar. É necessário cautela na utilização de critérios baseados na área do jato regurgitante, em virtude da subestimação da área na presença de jato excêntrico, freqüente em disfunção de prótese mitral.
Resumo:
Dissertação de mestrado em Técnicas de Caracterização e Análise Química
Resumo:
Dissertação de mestrado em Técnicas de Caraterização e Análise Química
Resumo:
Dissertação de mestrado integrado em Arquitectura (área de especialização em Cidade e Território)
Resumo:
El proyecto es la primera de tres etapas previstas para determinar factores críticos que inciden en el desarrollo local y regional integrado en la Provincia de Córdoba. Las poblaciones del interior de la Provincia de Córdoba, con exclusión de la Capital y de las principales ciudades del interior, han padecido los procesos de concentración geográfica del ingreso, la riqueza, los presupuestos oficiales y las migraciones. Muchas veces librada a su suerte, la sociedad civil de estas comunidades desarrolló y capitalizó una red de instituciones que prestan los servicios que el Estado no cubrió. Los gobiernos locales, a la vez, intentan, con éxitos limitados, detener el procesos de descapitalización social -financiera y humana de sus comunidades. Las empresas, con ciclos recurrentes de crecimiento y decrecimiento vinculados a los mercados, se debaten en la búsqueda de los escasos recursos, financieros y humanos, que les permitan consolidar un desarrollo a mediano y largo plazo. Juntos tienen, especialmente en la región pampeana de la Provincia, una nueva oportunidad de hacerlo. Según nuestra hipótesis, incidirían en estos procesos como factores críticos: 1. Aspectos exógenos que descapitalizan las comunidades como los tributarios (impuestos y gasto geográfico), financieros (colocaciones y préstamos), educativos (migración de los miembros más capacitados), sanitarios (por la concentración de las prestaciones de mayor complejidad), y de prestación de servicios públicos (por las mayores tarifas y menores prestaciones) de las empresas de capital concentrado. 2. Aspectos endógenos que producen des-economías, ineficiencias y desaprovechamiento de los recursos (humanos, productivos, tecnológicos, organizativos y financieros) locales y regionales, como: la falta de un proyecto local y/o regional común; dinámicas no participativas; insuficiencia, dispersión y desconocimiento de información clave para la planeación; diferencias personales y conflictos de roles; carencia de cadenas productivas integradas verticalmente El proyecto propone como objetivos: 1. Identificar y, en la medida de lo posible, cuantificar los factores críticos exógenos y endógenos para el desarrollo local y regional integrado; 2. elaborar sobre esta base modelos de desarrollo, proyectos interinstitucionales y propuestas de cadenas productivas que disminuyan los problemas y potencien las oportunidades de las comunidades regionales estudiadas
Resumo:
Este proyecto constituye la primera etapa exploratoria de un programa que pretende abordar la problemática de la formación en competencias de las carreras de Ciencias Sociales. Para la ejecución del proyecto se prevén las siguientes etapas: revisión bibliográfica, construcción de las herramientas de recolección de datos, trabajo de campo y análisis de datos. La estrategia será la de triangulación entre métodos. Se trabajará con un enfoque de investigación cuantitativo y cualitativo, lo que conduce a un diseño proyectado en el primer caso y emergente en el segundo. El contexto es la provincia de Córdoba. Los casos seleccionados son las carreras de Abogacía y Ciencia Política que se dictan en la Universidad Nacional de Río Cuarto y la Universidad Católica de Córdoba. La población en estudio serán los alumnos del último año de las mencionadas carreras y los graduados a partir del 2001, realizando este corte debido a la incidencia de la crisis que vivió el país con impacto en el mercado laboral. Se prevé relevamiento de todos los alumnos y la selección por muestreo de técnica de bola de nieve de los egresados. De los resultados de esta primera etapa se seleccionarán los casos representativos de los perfiles definidos según el grado de desarrollo de las competencias generales, conforme a la percepción de los entrevistados, los que participarán de las entrevistas de incidentes críticos y en profundidad.
Resumo:
OBJETIVO: Avaliar a aplicabilidade de três índices prognósticos - APACHE II, SAPS II e Unicamp II, em um subgrupo de pacientes críticos, portadores de insuficiência cardíaca (IC). MÉTODOS: Foram estudados 90 pacientes, sendo 12 do sexo feminino e 78, do sexo masculino, com idade média de 56 (18-83) anos. Os pacientes encontravam-se em classe funcional IV (NYHA) ou choque cardiogênico secundário às cardiomiopatias: dilatada (44%), chagásica (25,5%), isquêmica (18%), hipertensiva (1,1%), hipertrófica (1,1%), alcoólica (1,1%), e secundário às valvopatias já submetidas à correção cirúrgica (7,7%). Para descrever o perfil da amostra, segundo as diversas variáveis em estudo, foram feitas tabelas de freqüência das variáveis categóricas e estatísticas descritivas das variáveis contínuas. Para analisar a relação entre os valores dos índices prognósticos e a evolução para o óbito, foi realizada a análise da curva ROC, calculadas as estatísticas de bondade do ajuste de Hosmer e Lemeshow, assim como a SMR (Standardized Mortality Ratio). RESULTADOS: A análise estatística mostrou baixa sensibilidade, especificidade e acurácia dos três índices prognósticos para os pacientes com IC, tendo sido subestimada a mortalidade nesse grupo. Na IC refratária, a ocorrência de tromboembolismo pulmonar (TEP) foi um fator importante em relação à mortalidade. CONCLUSÃO: Os três índices prognósticos estudados não foram adequados para avaliação dos cardiopatas internados na Unidades de Terapia Intensiva (UTI). Nos pacientes com IC, o fator TEP foi importante para a descompensação aguda da IC e para a alta mortalidade do grupo. Índices prognósticos para cardiopatas com IC refratária deverão ser propostos, e a discussão sobre anticoagulação nestes pacientes deve ser ampliada.
Resumo:
El volumen de datos provenientes de experimentos basados en genómica y poteómica es grande y de estructura compleja. Solo a través de un análisis bioinformático/bioestadístico eficiente es posible identificar y caracterizar perfiles de expresión de genes y proteínas que se expresan en forma diferencial bajo distintas condiciones experimentales (CE). El objetivo principal es extender las capacidades computacionales y analíticos de los softwares disponibles de análisis de este tipo de datos, en especial para aquellos aplicables a datos de electroforésis bidimensional diferencial (2D-DIGE). En DIGE el método estadístico más usado es la prueba t de Student cuya aplicación presupone una única fuente de variación y el cumplimiento de ciertos supuestos distribucionales de los datos (como independencia y homogeneidad de varianzas), los cuales no siempre se cumplen en la práctica, pudiendo conllevar a errores en las estimaciones e inferencias de los efectos de interés. Los modelos Generalizados lineales mixtos (GLMM) permiten no solo incorporar los efectos que, se asume, afectan la variación de la respuesta sino que también modelan estructuras de covarianzas y de correlaciones más afines a las que se presentan en la realidad, liberando del supuesto de independencia y de normalidad. Estos modelos, más complejos en esencia, simplificará el análisis debido a la modelización directa de los datos crudos sin la aplicación de transformaciones para lograr distribuciones más simétricas. Produciendo también a una estimación estadísticamente más eficiente de los efectos presentes y por tanto a una detección más certera de los genes/ proteínas involucrados en procesos biológicos de interés. La característica relevante de esta tecnología es que no se conoce a priori cuáles son las proteínas presentes. Estas son identificadas mediante otras técnicas más costosas una vez que se detectó un conjunto de manchas diferenciales sobre los geles 2DE. Por ende disminuir los falsos positivos es fundamental en la identificación de tales manchas ya que inducen a resultados erróneas y asociaciones biológica ficticias. Esto no solo se logrará mediante el desarrollo de técnicas de normalización que incorporen explícitamente las CE, sino también con el desarrollo de métodos que permitan salirse del supuesto de gaussianidad y evaluar otros supuestos distribucionales más adecuados para este tipo de datos. También, se desarrollarán técnicas de aprendizaje automática que mediante optimización de funciones de costo específicas nos permitan identificar el subconjunto de proteínas con mayor potencialidad diagnóstica. Este proyecto tiene una alta componente estadístico/bioinformática, pero creemos que es el campo de aplicación, es decir la genómica y la proteómica, los que mas se beneficiarán con los resultados esperados. Para tal fin se utilizarán diversas bases de datos de distintos experimentos provistos por distintos centros de investigación nacionales e internacionales
Resumo:
OBJETIVO: Avaliar as diferenças entre três métodos para medida do infarto experimental em ratos, em relação ao método tradicional. MÉTODOS: A área infartada por histologia (AREA), o perímetro interno da cavidade infartada por histologia (PER) e o perímetro interno por ecocardiograma (ECO) foram comparados ao método tradicional (análise histológica das circunferências epicárdicas e endocárdicas da região infartada - CIR). Utilizaram-se ANOVA de medidas repetidas, complementada com o teste de comparações múltiplas de Dunn, o método de concordância de Bland & Altman e o teste de correlação de Spearman. A significância foi p < 0,05. RESULTADOS: Foram analisados dados de 122 animais, após 3 a 6 meses do infarto. Houve diferença na avaliação do tamanho do infarto entre CIR e os outros três métodos (p < 0,001): CIR = 42,4% (35,9-48,8), PER = 50,3% (39,1-57,0), AREA = 27,3% (20,2-34,3), ECO = 46,1% (39,9-52,6). Assim, a medida por área resultou em subestimação de 15% do tamanho do infarto, enquanto as medidas por ecocardiograma e pelo perímetro interno por meio de histologia resultaram em superestimação do tamanho do infarto de 4% e 5%, respectivamente. Em relação ao ECO e PER, apesar de a diferença entre os métodos ser de apenas 1,27%, o intervalo de concordância variou de 24,1% a -26,7%, sugerindo baixa concordância entre os métodos. Em relação às associações, houve correlações estatisticamente significativas entre: CIR e PER (r = 0,88 e p < 0,0001); CIR e AREA (r = 0,87 e p < 0,0001) e CIR e ECO (r = 0,42 e p < 0,0001). CONCLUSÃO: Na determinação do tamanho do infarto, apesar da alta correlação, houve baixa concordância entre os métodos.
Resumo:
La etapa de optimización de una droga denominada "Preformulación" está dirigida a definir el perfil de una droga desde el punto de vista de su identidad, pureza y potencia. Mediante la determinación de las propiedades físico-químicas que son relevantes en la formulación de un agente terapéutico es posible realizar una evaluación preliminar sobre las características de absorción del principio activo, por parte del organismo. (...) En la actualidad se elaboran en la Oficina de Farmacia "Formas Farmacéuticas" de cierta complejidad, que no pueden ser analizadas por los clásicos métodos químicos, sino que requieren de técnicas de instrumental modernas altamente selectivas y sensibles. Este tipo de estudio no puede realizarse fuera de los laboratorios oficiales de Control o del ámbito universitario, en razón del costo del equipamiento y las condiciones necesarias para su correcto funcionamiento. El análisis de los principios activos y de los productos farmacéuticos con ellos elaborados es responsabilidad tanto de la autoridad reguladora como el propio farmacéuticas que serán administradas al paciente. Es por ello que esta propuesta involucra el desarrollo de metodologías analíticas específicas y sensibles que permitan, en forma rápida, determinar la composición de las formas farmacéuticas que se comercializan, para "garantizar", dentro de los límites admisibles, la "calidad", requisito previo para una terapéutica medicamentosa eficaz y racional. Estudios realizados en diferentes países, demuestran el desarrollo significativo que ha tenido la Cromatografía Líquida de Alta Presión (HPLC) y la Espectrofotometría de Derivadas en el campo farmacéutico, permitiendo el análisis de drogas en presencia de sus productos de degradación o bien en mezclas de multicomponentes, aplicando distintas técnicas Espectroscópicas, como IR, RMN y EM en la determinación de estructuras. Por tal motivo, este proyecto apunta a desarrollar metodologías analíticas aplicables al análisis y determinación simultánea de los principios activos contenidos en formulaciones farmacéuticas. En este caso particular se propone el estudio de preparaciones galénicas (comprimidos) utilizadas como complemento en regímenes alimenticios, debido a la acción farmacológica de los ingredientes activos, al uso intensivo de las mismas en la Provincia de Córdoba y a la falta de Control de Calidad.
Resumo:
Desde hace ya tres décadas se conoce que el neonato, aún desde los primeros minutos de vida, puede responder a una gran variedad de olores, entre los cuales se encuentra el alcohol, con reacciones comportamentales y neurovegetativas específicas y que es capaz también de diferenciarlo de otros estímulos, lo que se puso de manifiesto a través de un proceso de habituación. La habituación, que es un proceso de aprendizaje no asociativo, se ha transformado en un parámetro valioso en el estudio del desarrollo de la plasticidad neurocomportamental en distintas especies, tanto en períodos perinatales como prenatales. En la esfera humana, se ha comprobado que el recién nacido puede habituar o sensitizar una respuesta refleja y responder de manera compleja a estimulación sensorial específica. Estudios realizados con claves olfatorias, tanto nóveles como biológicas, demuestran que el neonato puede reconocer y distinguir distintos olores y que la manera en que éste responde varía de acuerdo ala experiencia previa con el estímulo, manifestando preferencia por el olor que le resulta familiar, sin que necesariamente sea éste un olor materno. Estas tempranas capacidades de aprendizaje han sido útiles para evaluar la integridad del SNC fetal y neonatal, utilizando, por ejemplo, índices de habituación hacia distintos estímulos. Basándose en los resultados de estas investigaciones surge el objetivo general del proyecto: realizar un relevamiento de las capacidades de aprendizaje y memoria neonatales utilizando paradigmas de aprendizaje no asociativo como la habituación a claves olfativas nóveles (alcohol y limón), analizando la respuesta a los olores a través de patrones comportamentales y neurovegetativos presentes en el neonato a término. Este objetivo se irá desarrollando a lo largo de etapas experimentales consecutivas. En la primera de ellas, actualmente en ejecución, el propósito es evaluar respuestas habituatorias y de recuperación espontánea frente a la presentación secuencial de los aromas. En las etapas subsiguientes se pretenderá detectar también deshabituación y habituación ala deshabituación. Este proyecto forma parte de un plan de actividades mayor referido a reconocimiento, retención y discriminación de claves olfativas a nivel neonatológico. A largo plazo se procura diseñar, valiéndose de las tempranas capacidades de aprendizaje presentes en neonatos normales, pruebas que se utilicen para evaluar el desempeño neurocomportamental de recién nacidos donde se sospeche un Sistema Nervioso Central dañado por efectos de la exposición prenatal de alcohol y/o por episodios hipóxicos pre o perinatales.
Resumo:
La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.