987 resultados para Distributed Network Protocol version 3 (DNP3)
Resumo:
Cette thèse porte sur l’étude de l’anatomie de la cornée après 3 techniques de greffe soient, la greffe totale traditionnelle (GTT) et des techniques de greffe lamellaire postérieur (GLP) telles que la greffe lamellaire endothéliale profonde (DLEK) et la greffe endothélium/membrane de Descemet (EDMG) pour le traitement des maladies de l’endothélium, telles que la dystrophie de Fuchs et de la kératopathie de l’aphaque et du pseudophaque. Dans ce contexte, cette thèse contribue également à démontrer l’utilité de la tomographie de cohérence optique (OCT) pour l’étude de l’anatomie des plaies chirurgicales la cornée post transplantation. Au cours de ce travail nous avons étudié l'anatomie de la DLEK, avant et 1, 6, 12 et 24 mois après la chirurgie. Nous avons utilisé le Stratus OCT (Version 3, Carl Zeiss, Meditec Inc.) pour documenter l’anatomie de la plaie. L'acquisition et la manipulation des images du Stratus OCT, instrument qui à été conçu originalement pour l’étude de la rétine et du nerf optique, ont été adaptées pour l'analyse du segment antérieur de l’oeil. Des images cornéennes centrales verticales et horizontales, ainsi que 4 mesures radiaires perpendiculaires à la plaie à 12, 3, 6 et 9 heures ont été obtenues. Les paramètres suivants ont été étudiés: (1) Les espaces (gap) entre les rebords du disque donneur et ceux du receveur, (2) les dénivelés de surface postérieure (step) entre le les rebords du disque donneur et ceux du receveur, (3) la compression tissulaire, (4) le décollement du greffon, 6) les élévations de la surface antérieure de la cornée et 7) la pachymétrie centrale de la cornée. Les mesures d’épaisseur totale de la cornée ont été comparées et corrélées avec celles obtenues avec un pachymètre à ultra-sons. Des mesures d’acuité visuelle, de réfraction manifeste et de topographie ont aussi été acquises afin d’évaluer les résultats fonctionnels. Enfin, nous avons comparé les données de DLEK à celles obtenues de l’EDMG et de la GTT, afin de caractériser les plaies et de cerner les avantages et inconvénients relatifs à chaque technique chirurgicale. Nos résultats anatomiques ont montré des différences importantes entre les trois techniques chirurgicales. Certains des paramètres étudiés, comme le sep et le gap, ont été plus prononcés dans la GTT que dans la DLEK et complètement absents dans l’EDMG. D’autres, comme la compression tissulaire et le décollement du greffon n’ont été observés que dans la DLEK. Ceci laisse entrevoir que la distorsion de la plaie varie proportionnellement à la profondeur de la découpe stromale du receveur, à partir de la face postérieure de la cornée. Moins la découpe s’avance vers la face antérieure (comme dans l’EDMG), moins elle affecte l’intégrité anatomique de la cornée, le pire cas étant la découpe totale comme dans la GTT. Cependant, tous les paramètres d’apposition postérieure sous-optimale et d’élévation de la surface antérieure (ce dernier observé uniquement dans la GTT) finissent par diminuer avec le temps, évoluant à des degrés variables vers un profil topographique plus semblable à celui d’une cornée normale. Ce processus paraît plus long et plus incomplet dans les cas de GTT à cause du type de plaie, de la présence de sutures et de la durée de la cicatrisation. Les valeurs moyennes d’épaisseur centrale se sont normalisées après la chirurgie. De plus, ces valeurs moyennes obtenues par OCT étaient fortement corrélées à celles obtenues par la pachymétrie à ultra-sons et nous n’avons remarqué aucune différence significative entre les valeurs moyennes des deux techniques de mesure. L’OCT s’est avéré un outil utile pour l’étude de l’anatomie microscopique des plaies chirurgicales. Les résultats d’acuité visuelle, de réfraction et de topographie des techniques de GLP ont montré qu’il existe une récupération visuelle rapide et sans changements significatifs de l’astigmatisme, contrairement à la GTT avec et sans suture. La GLP a permis une meilleure conservation de la morphologie de la cornée, et par conséquence des meilleurs résultats fonctionnels que la greffe de pleine épaisseur. Ceci nous permet d’avancer que la GLP pourrait être la technique chirurgicale à adopter comme traitement pour les maladies de l’endothélium cornéen.
Resumo:
La vaccination ADN à l’aide de plasmides codant pour des autoantigènes s’est avérée efficace dans la protection contre plusieurs maladies auto-immunes. Le but de ce mémoire était dans un premier temps d’établir si un protocole de vaccination ADN composé de 3 injections de pCMV-CTLA-4-NP et de pVR-IL-12 à deux semaines d’intervalle avait un effet protecteur contre le développement d’une hépatite auto-immune chez la souris TTR-NP, un modèle murin transgénique de la maladie et précédemment développé au laboratoire. Dans un deuxième temps, le but était d’élucider, le cas échéant, les mécanismes sous-tendant la protection conférée par la vaccination ADN. Les hypothèses initiales étaient qu’une protection allait effectivement être conférée par la vaccination ADN et que celle-ci pouvait être attribuable à une déviation de la réponse typiquement Th1 de la maladie vers une réponse Th2, à un épuisement des cellules immunitaires et/ou à l’activation et à l’induction de prolifération de cellules régulatrices. Les résultats montrent que la vaccination ADN induit une protection transitoire contre le développement d’infiltrations lymphocytaires au foie. Cette protection se ferait via un épuisement des cellules CD4+, CD8+ et CD19+ se retrouvant à la rate et exprimant PD 1 dans une plus forte proportion à 3 mois, et ne serait médiée ni par les lymphocytes T régulateurs CD4+CD25+FoxP3+, ni par les cellules CD8+FoxP3+. Une déviation de la réponse Th1 vers une réponse Th2 demeure une explication supplémentaire plausible à la protection conférée mais nécessiterait une caractérisation en situation plus physiologique avant de pouvoir inférer sur son implication réelle. La vaccination ADN n’influe ni sur la présence d’autoanticorps, ni sur les niveaux d’alanine aminotransférase, deux marqueurs de la maladie.
Resumo:
L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.
Resumo:
Plusieurs études ont démontré que la consommation d’un repas à indice glycémique bas (LGI) avant un exercice physique favorisait l’oxydation des lipides, diminuait les épisodes d’hypoglycémie et améliorait la performance. Par contre, d’autres recherches n’ont pas observé ces bénéfices. Le but de cette étude consiste à démontrer l’impact de l’ingestion de déjeuners avec différents indices glycémiques (IG) sur la performance en endurance de cyclistes de haut niveau. Dix cyclistes masculins ont complété trois protocoles attribués de façon aléatoire, séparés par un intervalle minimal de sept jours. Les trois protocoles consistaient en une épreuve contre la montre, soit trois heures après avoir consommé un déjeuner à indice glycémique bas ou élevé contenant 3 grammes de glucides par kg de poids corporel, soit à compléter l’exercice à jeun. Les résultats obtenus pour le temps de course montrent qu’il n’y pas de différence significative entre les protocoles. Par contre, on observe que le nombre de révolutions par minute (RPM) est significativement plus élevé avec le protocole à indice glycémique élevé (HGI) (94,3 ± 9,9 RPM) comparativement au protocole à jeun (87,7 ± 8,9 RPM) (p<0,005). Au niveau de la glycémie capillaire, on observe que durant l’exercice, au temps 30 minutes, la glycémie est significativement supérieure avec le protocole à jeun (5,47 ± 0,76 mmol/L) comparé à HGI (4,99 ± 0,91 mmol/L) (p<0,002). Notre étude n’a pas permis de confirmer que la consommation d’un repas LGI avant un exercice physique améliorait la performance physique de façon significative. Cependant, notre recherche a démontré que la diversité des protocoles utilisés pour évaluer l’impact de l’indice glycémique sur la performance physique pouvait occasionner des variations positives dans les temps de courses. Par conséquent, il s’avère nécessaire de faire d’autres recherches qui reproduisent les situations de compétition de l’athlète soit la course contre la montre.
Resumo:
Page 1. Webhosting and Networking G. Santhosh Kumar, Dept. of Computer Science Cochin University of Science and Technology Page 2. Agenda What is a Network? Elements of a Network Hardware Software Ethernet Technology World Wide Web Setting up a Network Conclusion Page 3. What is a Network? An interconnected system of things or people Purpose of a Network? Resource Sharing Communication LANs have become the most popular form of Computer Networks Page 4. Principle of Locality of Reference Temporal Locality of Reference ...
Resumo:
Objetivos : Establecer la prevalencia de Síndrome de Burnout en 17 médicos de consulta externa de una IPS de Bogotá, antes de la jornada laboral y después de la misma. Determinar las dimensiones del Síndrome de Burnout y relacionarlas con las variables sociodemográficas escogidas para este caso. Metodología: Se realizó un estudio longitudinal con una población de 17 médicos generales de consulta externa de una IPS de la cuidad de Bogotá Colombia, en el año 2009. Se les aplicó el Test de Maslach, para determinar las tres dimensiones del Síndrome de Burnout las cuales son: agotamiento emocional, despersonalización y realización personal para establecer la relación con las variables escogidas previamente. Para el análisis estadístico se usó el Software Epi Info Versión 3.51. Las variables cuantitativas fueron resumidas teniendo en cuenta medidas de tendencia central y las variables cuantitativas se expresaron en forma de proporciones. Para realizar las comparaciones se utilizó la prueba Ji cuadrado con ajuste por Test de Fischer. Se consideró significancia estadística con p 0.05. Resultado : La población estudiada fue en su mayoría de género femenino, con una mediana de edad de 30 años. El 41.2% de los médicos trabajan 8 horas diarias y el 35.3% trabajan más de 8 horas al día. Se calificaron las tres dimensiones que propone el test de Maslach, las cuales son agotamiento emocional, despersonalización y realización personal dando un puntaje de alto medio y bajo según las respuestas de los médicos evaluados. . Dentro de las dimensiones analizadas del test de Maslach antes de la jornada laboral el 35.3 % presentan agotamiento emocional dentro de la puntuación alta y después de la jornada se aumenta a 47.1%. En cuanto al puntaje para medio en esta misma dimensión fue de 23.5 % y bajo 41.2% previo a la jornada , con un porcentaje al finalizar de la jornada de 17.6% y 35.3% respectivamente. La dimensión de despersonalización antes de la jornada fue de 29,4% para alto, 23.5% para medio y 47.1% para bajo. Al finalizar la jornada no se observan cambios significativos en los porcentajes de esta dimensión. No se obtuvo prevalencia significativa entre las variables estudiadas y cada una de las dimensiones del Test de Maslach. Discusión : Los resultados muestran que existe un cambio en la dimensión de agotamiento emocional al inicio de la jornada laboral comparado con el final de la misma. Las calificaciones obtenidas tuvieron valores altos, mientras que en los de valores medio y bajo disminuyó este agotamiento al finalizar la jornada. Para la despersonalización los valores no se vieron modificados tras la jornada de trabajo. En cuanto a la realización personal hubo una variación ya que los sujetos que fueron calificados al iniciar la jornada con valores altos disminuyeron al finalizar y los de valores medio y bajo aumentaron su realización personal al finalizar la jornada. De otra parte no se establecieron relaciones significativas con los factores extralaborales e individuales evaluados, teniendo en cuenta probablemente el tamaño de la población de estudio y el tiempo de evaluación.
Resumo:
Introducción: El Síndrome de intestino irritable (SII) es de las patologías gastrointestinales más frecuentes a nivel mundial y de difícil manejo y control, con una prevalencia actual del 14% de acuerdo con los criterios ROMA II en Colombia, con tendencia al aumento. Su origen es multifactorial y no se ha logrado establecer un origen común, se ha encontrado asociación entre el SII y la presencia de ansiedad y depresión. Metodología: Estudio de corte transversal con componente exploratorio de la asociación de ansiedad y depresión con SII; muestra consecutiva de 315 pacientes que se calculó mediante stat calc epi info tomando una prevalencia del 14%, con un número de pacientes esperados de 1200 al mes. Se seleccionaron los pacientes que asisten a consulta de gastroenterología de la IPS CAFAM entre el 8 y el 29 de noviembre de 2010, se les aplicó la encuesta para medir factores sociodemográficos, establecer diagnóstico de SII mediante criterios Roma III y escala ZUNG para depresión y ansiedad. El análisis estadístico se realizó utilizando los programas SPSS versión 18.0 y EPI INFO versión 3.5.1 Resultados: La prevalencia del SII en los pacientes de la consulta de gastroenterología fue del 23% (n 63), con IC 95% (18%-28%). Se hallo una asociación significativa entre el género femenino (p:0.035),el grupo de edad de 31 a 55 (p: 0.043), y una fuerte asociación entre depresión severa y el síndrome de intestino irritable (p: 0.08). No se encontró asociación entre el SII y la ansiedad. Discusión: Existen factores de riesgo asociados a la presencia SII, como el género, la edad y la depresión severa documentados en la literatura (22). Se observó que la depresión severa está asociada significativamente con el SII, no así la ansiedad en ninguna de sus presentaciones; es necesario realizar estudios posteriores, que contribuyan a verificar la existencia y fuerza de dicha asociación y así aportar mayor evidencia que permita incentivar y fomentar el manejo multidisciplinario de la depresión en los pacientes con SII. Palabras clave: Síndrome de Intestino Irritable, Ansiedad, Desordenes de ansiedad, Depresión.
Resumo:
Objetivos: Determinar si existe diferencia en la ganancia interdialítica entre los pacientes al ser tratados con flujo de dializado (Qd) de 400 mL/min y 500 mL/min. Diseño: Se realizó un estudio de intervención, cruzado, aleatorizado, doble ciego en pacientes con enfermedad renal crónica en hemodiálisis para determinar diferencias en la ganancia de peso interdialítica entre los pacientes tratados con flujo de dializado (Qd) de 400 ml/min y 500 ml/min. Pacientes: Se analizaron datos de 46 pacientes en hemodiálisis crónica con Qd de 400 ml/min y 45 con Qd de 500 ml/min. Análisis: La prueba de hipótesis para evaluar diferencias en la ganancia interdialítica y las otras variables entre los grupos se realizó mediante la prueba T para muestras pareadas. Para el análisis de correlación se calculó el coeficiente de Pearson. Resultados: No hubo diferencia significativa en ganancia interdialítica usando Qd de 400 ml/min vs 500 ml/min (2.37 ± 0.7 vs 2.41 ± 0.6, p=0.41) ni en Kt/V (1.57 ± 0.25 vs 1.59 ± 0.23, p = 0.45), potasio (4.9 ± 1.1 vs 5.1 ± 1.0, p=0.45), fosforo (4.5 ± 1.2 vs 4.4 ± 1.2, p=0.56) o hemoglobina (11.3 ± 1.8 vs 11.3 ± 1.6, p=0.96). Conclusiones: En pacientes con peso ≤ 65 Kg el uso de Qd de 400 ml/min no se asocia con menor ganancia interdialítica de peso. No hay diferencia en la eficiencia de diálisis lo que sugiere que es una intervención segura a corto plazo.
Resumo:
Este plan exportador proyectado a un plazo de 3 años, servirá a ITAC IT APPLICATIONS CONSULTING S.A. para direccionar sus actividades en el mercado internacional para los años 2009, 2010, 2011. La prioridad de los 2 primeros años será el mejoramiento interno de la empresa, que será la aplicación de estrategias en diferentes campos como: capital humano, capital intelectual, capital cultural, crecimiento económico, estrategia comercial en el área internacional, construcción de capital financiero para la generación de ingresos. Para tener participación en mercados internacionales, mostrar su potencial exportador y lograr las expectativas de crecimiento de las ventas independientes a las obtenidas en el marcado local; pretende empezar en el año 2009, en el mercado Peruano con exportaciones por $36.000 USD correspondiente a 30 unidades, aumentando a $ 72000 USD con 60 unidades en el 2010 y $ 108000 USD y 90 unidades en el 2011. El Servicio a exportar fue “SecureFile” a partir del cual se definieron factores de éxito como lo son las ventajas competitivas del producto en sí mismo enumeradas a continuación: 1) Precio muy competitivo en el mercado, 2) Automatización del proceso de intercambio de información, 3) Software basado en estándares, 4) Se ejecuta en cualquier sistema operativo. A su vez se realizaron consultorías donde se diagnosticó todas las áreas de la empresa arrojando algunos resultados: La estructura organizacional esta bien definida, pero por su crecimiento y necesidad de incluir nuevo personal, no hay claridad en las funciones dentro del organigrama y depende totalmente de la dirección general. Por esto la gerencia debe estructurar mejor los departamentos comerciales creando nuevos cargos de acuerdo al proceso de internacionalización. Las políticas de personal se trabajan de manera informal con criterios validos para promover trabajadores (mérito, antigüedad, etc.), se realizan actualizaciones Tecnológicas mensuales, reconocimiento y participación en la empresa a sus funcionarios, excelentes relaciones personales que permiten hacer evaluaciones de desempeño acorde a las metas, gran variedad de motivación y responsabilidad social encaminada a los niños de bajos recursos. Aunque se debe crear un área de gestión humana y definir la frecuencia de las capacitaciones. Los ingresos son provenientes de la prestación de servicios de IT con incrementando de 256% durante los tres años anteriores para obtener $ 2`032.784.683 millones de pesos en el 2007. El nivel de endeudamiento también ha ido en aumento, por la necesidad de capacidad instalada, contrataciones de personal, el cumplimiento de requisitos del mercado y la necesidad generar buena imagen crediticia con entidades financieras. Cuenta con un musculo financiero para respaldar sus obligaciones inmediatas con $4,42 por $1 comprometido en el 2007 a pesar de ser el año con mayor nivel de endeudamiento arrojando pasivos corrientes por $127.715.281,37. Los cuatro socios cuentan con un comportamiento de 164,67% (2006) y 132,97% (2007) de rendimiento de sobre la inversión antes de impuestos. Para este año más del 95% de su información financiera y contable se maneja de manera sistematizada. El área Financiera de la empresa no es la más débil, pero no existe un departamento financiero con un solo responsable a la cabeza, por esto deben destinar un área separada de la administrativa con un asesor financiero que tenga disponibilidad de 100%. En el caso particular del proyecto de exportación los costos de producción se centran en SecureFile versión 3.0 que no representa costos marginales, ya que la replica de este software puede hacerse cuantas veces sea requerido sin afectar en ninguna proporción los costos. La empresa no utiliza un método formal para calcular sus costos de operación y desarrollo de programas. Pero ha desarrollado un sistema de evaluación de costos en tablas de Excel que de manera organizada logran un costeo acorde a sus necesidades específicas. Para la selección de los países: objetivo, alterno y contingente; se realizó una matriz de Selección de 6 países basados en la exigencia gubernamental en términos de seguridad de la información vía internet, y la percepción de los empresarios, competencia y otros factores económicos; arrojando como resultado a Perú, Costa Rica y México.
Resumo:
Las urgencias en todos los paìses del mundo,tienden a manejar volumenes de pacientes cada vez mayores.Se hace necesario introducir estrategias que permitan clasificar la gravedad de los mismos y asì brindar la mejor oportunidad de atenciòn para aquellos que lo demandan. Para tal fin, consideramos indispensable, tener la seguridad que una vez capacita-do el personal de enfermería, que cumple el perfil para este proceso, demuestre tener un grado de concordancia en relación a la asignación del triage, con respec-to a los médicos generales considerados como referencia. Esta nueva condición hace necesario evaluar a través de un estudio observacional de concordancia, la asignación del triage médico y de enfermería con una muestra suficiente, que nos permita tomar la decisión de implementarlo en el Hospital Universitario Clínica San Rafael Se trata, en forma inicial, de una exploración descriptiva de tipo transversal que mostrará el perfil de distribución de frecuencias de los niveles de triage asig-nados actualmente en el servicio de urgencias del Hospital Universitario Clínica San Rafael. (Fase descriptiva).
Resumo:
RESUMO: Com o presente estudo pretendeu-se conhecer qual a relação entre os alunos que participaram nas Actividades Físicas Desportivas (AFD) no 1º ciclo em conjunto com Actividade Física Extra-Escola, e os alunos que participaram apenas numa dessas variáveis. Sobretudo pretende-se verificar se os alunos que tiveram Actividade Física Desportiva (AFD) no 1º ciclo e participaram em Actividades Extra-Escola, como por exemplo Futebol, Ginástica ou Natação nos clubes, demonstram maiores competências em relação aos alunos que não frequentaram pelo menos uma das Actividades (AFD e/ou Actividade Física Extra-Escola). O estudo foi realizado através das aulas do desempenho dos alunos no 2 º ciclo do Ensino Básico na disciplina de Educação Física. Através da classificação final do 1 º período, dos alunos do 5 º ano, verificar-se-á se os alunos que praticaram mais Actividade Física (AF) têm maiores competências do que os alunos que praticaram menos AF. A amostra foi constituída por 119 alunos do 5 º ano de escolaridade (57 do Sexo Feminino), com idades compreendidas entre os 10 anos e os 13 anos. Foram utilizados os seguintes instrumentos: consulta dos dados da avaliação dos alunos do 5 º ano e questionário de atitudes aplicado aos alunos. Os dados foram tratados estatisticamente através do programa informático EZanalyze versão 3.0 para o Windows. ABSTRACT: The present study aimed to know what the relation between the students who participated in activities physical Sports, in 1 º Cycle activities physical extra-school, and students who participated in only one of these variables. Primarily intended to verify that students who had activities physical Sports in 1 º Cycle and participated in activities outside school, such as Football, in the clubs, show more skills in relation to students who have not attended the activities of at least one. This study was conducted by the school performance of students in 2 º Cycle of basic education in Physical Education. Through the end of grading, students of five years, there would be the students who practiced more physical activities have higher skills than students who performed less physical activity, especially during the first cycle route. The sample consisted of 119 students from 5 º years of schooling (57 female), aged 10 years and 13 years. Will use the following instruments: consultation of data from assessment of students in five years and attitudes questionnaire applied to pupils. The data were treated statistically using the computer program EZ analyze version 3.0 for Windows.
Resumo:
In this paper, we present a distributed computing framework for problems characterized by a highly irregular search tree, whereby no reliable workload prediction is available. The framework is based on a peer-to-peer computing environment and dynamic load balancing. The system allows for dynamic resource aggregation, does not depend on any specific meta-computing middleware and is suitable for large-scale, multi-domain, heterogeneous environments, such as computational Grids. Dynamic load balancing policies based on global statistics are known to provide optimal load balancing performance, while randomized techniques provide high scalability. The proposed method combines both advantages and adopts distributed job-pools and a randomized polling technique. The framework has been successfully adopted in a parallel search algorithm for subgraph mining and evaluated on a molecular compounds dataset. The parallel application has shown good calability and close-to linear speedup in a distributed network of workstations.
Resumo:
The commonly held view of the conditions in the North Atlantic at the last glacial maximum, based on the interpretation of proxy records, is of large-scale cooling compared to today, limited deep convection, and extensive sea ice, all associated with a southward displaced and weakened overturning thermohaline circulation (THC) in the North Atlantic. Not all studies support that view; in particular, the "strength of the overturning circulation" is contentious and is a quantity that is difficult to determine even for the present day. Quasi-equilibrium simulations with coupled climate models forced by glacial boundary conditions have produced differing results, as have inferences made from proxy records. Most studies suggest the weaker circulation, some suggest little or no change, and a few suggest a stronger circulation. Here results are presented from a three-dimensional climate model, the Hadley Centre Coupled Model version 3 (HadCM3), of the coupled atmosphere - ocean - sea ice system suggesting, in a qualitative sense, that these diverging views could all have occurred at different times during the last glacial period, with different modes existing at different times. One mode might have been characterized by an active THC associated with moderate temperatures in the North Atlantic and a modest expanse of sea ice. The other mode, perhaps forced by large inputs of meltwater from the continental ice sheets into the northern North Atlantic, might have been characterized by a sluggish THC associated with very cold conditions around the North Atlantic and a large areal cover of sea ice. The authors' model simulation of such a mode, forced by a large input of freshwater, bears several of the characteristics of the Climate: Long-range Investigation, Mapping, and Prediction (CLIMAP) Project's reconstruction of glacial sea surface temperature and sea ice extent.
Resumo:
Observations show the oceans have warmed over the past 40 yr. with appreciable regional variation and more warming at the surface than at depth. Comparing the observations with results from two coupled ocean-atmosphere climate models [the Parallel Climate Model version 1 (PCM) and the Hadley Centre Coupled Climate Model version 3 (HadCM3)] that include anthropogenic forcing shows remarkable agreement between the observed and model-estimated warming. In this comparison the models were sampled at the same locations as gridded yearly observed data. In the top 100 m of the water column the warming is well separated from natural variability, including both variability arising from internal instabilities of the coupled ocean-atmosphere climate system and that arising from volcanism and solar fluctuations. Between 125 and 200 m the agreement is not significant, but then increases again below this level, and remains significant down to 600 m. Analysis of PCM's heat budget indicates that the warming is driven by an increase in net surface heat flux that reaches 0.7 W m(-2) by the 1990s; the downward longwave flux increases bv 3.7 W m(-2). which is not fully compensated by an increase in the upward longwave flux of 2.2 W m(-2). Latent and net solar heat fluxes each decrease by about 0.6 W m(-2). The changes in the individual longwave components are distinguishable from the preindustrial mean by the 1920s, but due to cancellation of components. changes in the net surface heat flux do not become well separated from zero until the 1960s. Changes in advection can also play an important role in local ocean warming due to anthropogenic forcing, depending, on the location. The observed sampling of ocean temperature is highly variable in space and time. but sufficient to detect the anthropogenic warming signal in all basins, at least in the surface layers, bv the 1980s.
Resumo:
There is much evidence that El Niño and La Niña lead to significant atmospheric seasonal predictability across much of the globe. However, despite successful predictions of tropical Pacific SSTs, atmospheric seasonal forecasts have had limited success. This study investigates model errors in the Hadley Centre Atmospheric Model version 3 (HadAM3) by analyzing composites of similar El Niño and La Niña events at their peak in December–January–February (DJF) and through their decay in March–April–May (MAM). The large-scale, tropical ENSO teleconnections are modeled accurately by HadAM3 during DJF but the strongest extratropical teleconnection, that in the North Pacific during winter, is modeled inaccurately. The Aleutian low is frequently observed to shift eastward during El Niño but the modeled response always consists of a deepening of the low without a shift. This is traced to small errors in the sensitivity of precipitation to SST in the tropical Pacific, which does not display enough variability so that the precipitation is always too high over the warmest SSTs. This error is reduced when vertical resolution is increased from 19 to 30 levels but enhanced horizontal resolution does not improve the simulation further. In MAM, following the peak of an El Niño or La Niña, atmospheric anomalies are observed to decay rapidly. The modeled ENSO response in DJF persists into MAM, making the extratropical anomalies in MAM too strong. This inaccuracy is again likely to be due to the high modeled sensitivity of tropical Pacific precipitation to SST, which is not significantly improved with enhanced vertical or horizontal resolution in MAM.