921 resultados para Calcul quantique expérimental
Resumo:
Dans la pratique actuelle de la curiethérapie à bas débit, l'évaluation de la dose dans la prostate est régie par le protocole défini dans le groupe de travail 43 (TG-43) de l'American Association of Physicists in Medicine. Ce groupe de travail suppose un patient homogène à base d'eau de même densité et néglige les changements dans l'atténuation des photons par les sources de curiethérapie. En considérant ces simplifications, les calculs de dose se font facilement à l'aide d'une équation, indiquée dans le protocole. Bien que ce groupe de travail ait contribué à l'uniformisation des traitements en curiethérapie entre les hôpitaux, il ne décrit pas adéquatement la distribution réelle de la dose dans le patient. La publication actuelle du TG-186 donne des recommandations pour étudier des distributions de dose plus réalistes. Le but de ce mémoire est d'appliquer ces recommandations à partir du TG-186 pour obtenir une description plus réaliste de la dose dans la prostate. Pour ce faire, deux ensembles d'images du patient sont acquis simultanément avec un tomodensitomètre à double énergie (DECT). Les artéfacts métalliques présents dans ces images, causés par les sources d’iode, sont corrigés à l'aide d’un algorithme de réduction d'artefacts métalliques pour DECT qui a été développé dans ce travail. Ensuite, une étude Monte Carlo peut être effectuée correctement lorsque l'image est segmentée selon les différents tissus humains. Cette segmentation est effectuée en évaluant le numéro atomique effectif et la densité électronique de chaque voxel, par étalonnage stoechiométrique propre au DECT, et en y associant le tissu ayant des paramètres physiques similaires. Les résultats montrent des différences dans la distribution de la dose lorsqu'on compare la dose du protocole TG-43 avec celle retrouvée avec les recommandations du TG-186.
Resumo:
Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.
Resumo:
Les mesures satellitaires de réflectance de télédétection (Rrs) associée à la fluorescence de la chlorophylle-a induite par le soleil (FCIS), notées Rrs,f , sont largement utilisées dans le domaine de l’océanographie converties sous la forme de rendement quantique de la fluorescence (QYF). Le QYF permet de déterminer l’impact de l’environnement sur la croissance du phytoplancton. Tout comme les autres mesures qui reposent sur la luminance montante, le QYF, et donc la Rrs,f , sont influencés par les effets de bidirectionnalité. Ainsi, sachant que la variabilité naturelle du QYF est faible, les biais engendrés par une normalisation inadéquate de la Rrs,f peuvent avoir des impacts importants sur l’interprétation des mesures de QYF à l’échelle planétaire. La méthode actuelle utilisée pour corriger la dépendance angulaire du signal observé dans la bande de fluorescence par le spectroradiomètre imageur à résolution moyenne (MODIS), embarqué à bord du satellite Aqua, repose sur l’application d’une table de correspondance (LUT) développée par Morel et al. (2002). Toutefois, l’approche de Morel et al. (2002) ne tient pas compte du caractère isotrope de la FCIS ce qui induit des biais systématiques sur les mesures de Rrs,f selon la latitude, par exemple. Dans ce mémoire, une nouvelle méthode de calcul de la LUT ayant pour but de réduire ces biais est introduite. Tout d’abord, celle-ci intègre une mise à jour des propriétés optiques inhérentes (IOPs) dans le modèle de transfert radiatif sur la base de publications plus récentes. Ensuite, la gamme spectrale de son application est élargie à la bande de fluorescence contrairement à la méthode actuelle qui se limite à la longueur d’onde de 660 nm. Finalement, la LUT révisée tient compte des trois composantes principales de la réflectance de télédétection que sont (1) la rétrodiffusion élastique de la lumière par les molécules d’eau et par les particules en suspension, (2) la diffusion Raman (inélastique) par les molécules d’eau et (3) la FCIS. Les résultats de Rrs,f normalisées avec la nouvelle méthode présentent une différence de dispersion moyenne par rapport à celle obtenue par l’application de la méthode de Morel et al. (2002) de l’ordre de -15 %. Des différences significatives, de l’ordre de -22 %, sont observées à de grands angles d’observation et d’éclairement (> 55 %).
Resumo:
This Paper deals with the analysis of liquid limit of soils, an inferential parameter of universal acceptance. It has been undertaken primarily to re-examine one-point methods of determination of liquid limit water contents. It has been shown by basic characteristics of soils and associated physico-chemical factors that critical shear strengths at liquid limit water contents arise out of force field equilibrium and are independent of soil type. This leads to the formation of a scientific base for liquid limit determination by one-point methods, which hitherto was formulated purely on statistical analysis of data. Available methods (Norman, 1959; Karlsson, 1961; Clayton & Jukes, 1978) of one-point liquid limit determination have been critically re-examined. A simple one-point cone penetrometer method of computing liquid limit has been suggested and compared with other methods. Experimental data of Sherwood & Ryley (1970) have been employed for comparison of different cone penetration methods. Results indicate that, apart from mere statistical considerations, one-point methods have a strong scientific base on the uniqueness of modified flow line irrespective of soil type. Normalized flow line is obtained by normalization of water contents by liquid limit values thereby nullifying the effects of surface areas and associated physico-chemical factors that are otherwise reflected in different responses at macrolevel.Cet article traite de l'analyse de la limite de liquidité des sols, paramètre déductif universellement accepté. Cette analyse a été entreprise en premier lieu pour ré-examiner les méthodes à un point destinées à la détermination de la teneur en eau à la limite de liquidité. Il a été démontré par les caractéristiques fondamentales de sols et par des facteurs physico-chimiques associés que les résistances critiques à la rupture au cisaillement pour des teneurs en eau à la limite de liquidité résultent de l'équilibre des champs de forces et sont indépendantes du type de sol concerné. On peut donc constituer une base scientifique pour la détermination de la limite de liquidité par des méthodes à un point lesquelles, jusqu'alors, n'avaient été formulées que sur la base d'une analyse statistique des données. Les méthodes dont on dispose (Norman, 1959; Karlsson, 1961; Clayton & Jukes, 1978) pour la détermination de la limite de liquidité à un point font l'objet d'un ré-examen critique. Une simple méthode d'analyse à un point à l'aide d'un pénétromètre à cône pour le calcul de la limite de liquidité a été suggérée et comparée à d'autres méthodes. Les données expérimentales de Sherwood & Ryley (1970) ont été utilisées en vue de comparer différentes méthodes de pénétration par cône. En plus de considérations d'ordre purement statistque, les résultats montrent que les méthodes de détermination à un point constituent une base scientifique solide en raison du caractère unique de la ligne de courant modifiée, quel que soit le type de sol La ligne de courant normalisée est obtenue par la normalisation de la teneur en eau en faisant appel à des valeurs de limite de liquidité pour, de cette manière, annuler les effets des surfaces et des facteurs physico-chimiques associés qui sans cela se manifesteraient dans les différentes réponses au niveau macro.
Resumo:
Détermination de l'activité du calcium par la méthode d'effusion de Knudsen. Calcul, à partir de la distribution mesurée pour l'aluminium entre l'alliage et du fer pur, de l'activité de l'aluminium dans des alliages riches en calcium. Détermination en combinant les deux méthodes, des activités des deux composants et de l'énergie de Gibbs de mélange pour tout le domaine de composition. Calcul et analyse du facteur de structure concentration-concentration
Resumo:
Para el estudio se utilizaron 68 novillos producto del cruce de la raza Pardo Suizo x Brahman con un peso inicial de 230 ± 33 kg, con el objetivo de evaluar el efecto de tres tratamientos anabólicos sobre la ganancia de peso total en pastoreo libre durante un periodo de 100 días, siendo los tratamientos los siguientes: T 1 (Zeranol implante: Zeranol Over®), T2 (Zeranol Over® formulación tixotrópico), T3. (Overmax® LA Premium: Zeranol + ivermectina 3.15%), comparado con el T4 Testigo o Control (Sin implante). A los animales pesados y organizados en tres grupos con características semejantes, se les aplicó los tratamientos y cada grupo estuvo conformado por 17 novillos; de igual manera, fueron desparasitados con Vermectina La Premium 3. 15 %, a razón de 1ml por cada 50 kg de peso vivo (kg p.v), antes de aplicar los agentes anabólicos. Se determinó el incremento en peso a partir del peso final e inicial, y se calculó la Ganancia Media Diaria (GMD) en cada uno de los tratamientos. Para el diseño de dos vías se utilizó el test de Fisher (Análisis de Varianza) y el Test de Friedman, y categorización estadística mediante la Mínima Diferencia Significativa (DMS, P=O.OS). El análisis estadístico determinó efecto altamente significativo (P=O.OOl) en la GMD, en donde la GMD fue de 739, 624, 590 y de 536 gramos para los tratamientos T3 (Overeas® LA Premium: Zeranol + ívermectina), TI (Zeranol implante: Zeranol Over®), T2 (Zeranol Over'l formulación tixotrópica) y el Control, respectivamente. El implante Overmax® LA Premium (Zeranol+ivermectina3.15%) superó en más de 27 % al tratamiento sin implante, siendo este el tratamiento de mayor rentabilidad, con 83.43 dólares en ganancia de peso por animal, y una relación Beneficio/Costo de 1.27 por cada unidad monetaria invertida.
Resumo:
El estudio del plan de bioseguridad de granjas de engorde de las cuatro empresas avícolas de engorde de Nicaragua se realizó con el objetivo de evaluar las medidas de bioseguridad, permitiéndonos: conocer las fortalezas y debilidades, desarrollo tecnológico y distribución de las cuatro empresas por departamento. La información se recopiló en el formato de encuesta de medidas de bioseguridad del MAGFOR, que consiste en un stop de 86 preguntas dirigidas a investigar su cumplimiento, las respuestas se analizaron mediante incorporación de datos en hoja electrónica en Excel y procesadas en Acces para estudiarlas con la formula V/TP x 100; El nivel tecnológico se calculó agregando un valor a cada pregunta con un puntaje de 2 a 5 para dar un peso o ponderación especifica, 2 las de menor tecnología y 5 las de mayor nivel ténológico. Encontrándose que el 78% de la encuestas del plan de bioseguridad es aprobado con rango de 98 a 60% de cumplimiento, estas son consideradas fortalezas para las granjas y el 22% tienen un menor nivel de aceptación considerándose las debilidades de las mismas. En el nivel tecnológico 26 de 44 granjas poseen la categoría alta que es mayor o igual al 80% de tecnología, 13 tienen una categoría media del 60% a 79% y 4 poseen un nivel bajo menor al 59%. Todas ellas ubicadas en los departamentos de Carazo, Estelí, Granada, León, Madríz, Managua. Masaya, Matagalpa y nueva Segovia, siendo Masaya la que presenta mayor cantidad de granjas.
Resumo:
Se estudió el patosistema mancha de hierro-café a diferentes altitudes y bajo condiciones de campo para describir sus epidemias y determinar el periodo critico, su efecto sobre la defoliación y la producción de café cereza y la influencia del clima sobre su desarrollo. Se seleccionaron lotes en fincas a 440 y 650 m.s.n.m., en el Pacifico y 850, 1050 y 1200 m.s.n.m., en el norte. En cada lote, se numeraron y marcaron 150 bandolas, distribuidas en tres estratos y durante 40 semanas se recolectaron datos del nümero de nudos, nudos con frutos, hojas, incidencia (%), severidad (%), nümero de esporas, temperatura, humedad relativa y precipitación. Además, se recolectó información concerniente al nivel tecnológico, manejo agronómico y caracteristicas fisicas del lote. Luego, se describieron y compararon las epidemias, tanto a nivel de estrato, como a nivel de ecosistema, relacionándolas en este ültimo caso con las variables climátícas, el inóculo, la defoliación y ,la producción. Se definió el periodo critico, determinando en qué fase de las epidemias ocurrieron las mayores r (tasas aparentes de infección}. También se calculó un indice de importancia de las epidemias para ampliar las comparaciones. La "mancha de hierro" es más agresiva en el norte que en el Pacifico y se desarrolla más rápidamente cuando comienza tarde. Su mejor desarrollo ocurre en el estrato superior. Su ciclo epidémico va de mayo y junio a marzo y abril y su periodo critico ocurre durante las 2-4 primeras semanas, para la incidencia y los primeros 4-7 meses, para la severidad. Durante este periodo la acumulación semanal de enfermedad fue de 1 - 3% para la incidencia y 0.2 - 0.5% para la severidad. No se pudieron obtener resultados categóricos en cuanto a la relación del desarrollo de la enfermedad y las variables climáticas. Los mayores ataques a los frutos ocurrieron donde habia menos sombra y no necesariamente donde ocurrió la mayor tasa de infección en hojas. Cualquier sistema de manejo de la "mancha de hierro" debe fundamentarse en una fertilización y limpieza adecuadas del cafetal y el control quimico aplicado en base al periodo critico y el estrato de mayor desarrollo de la enfermedad. La severidad y la incidencia describieron de igual manera las epidemias del patosistema, pero es más conveniente utilizar la incidencia como elemento para la toma de decisiones de manejo.
Resumo:
El presente trabajo tuvo como objetivo buscar nuevas alternativas de manejo para el control de la roya del café (Hemileia vastatrix B & BR.) con el uso de Bacillus thuringiensis Berliner (Bt) y oxicloruro de cobre, como complemento al manejo de la sombra, para buscar como disminuir la incidencia de la roya y determinar el mejor momento para la aplicación tomando en cuenta los porcentajes de ésta enfermedad. Para ello se escogió la finca Santa Ana ubicada en el cerro Mombacho (Nicaragua) a 750 metros sobre el nivel del mar. De junio de 1994 a febrero de 1995 se realizaron quincenalmente muestreos aleatorios por conglomerados para roya, mancha de hierro (Cercospora coffeicola B & CK.) y antracnosis (Colletotrichum sp), así como se registraron todas las labores de manejo que realizó el productor. Se establecieron 4 opciones: 2 con cobre: una en forma calendarizado y otra con 10 por ciento de incidencia acumulada, una tercera opc1on usando Bt y por último una parcela testigo. Con los datos obtenidos se elaboraron curvas de incidencia simple y acumulada. Las proporciones de incidencia fueron transformadas a monolitos y lógitos para la realización de regresión simple y poder calcular la velocidad de crecimiento de la epidemia, se calculó el área bajo la curva de la epidemia y las X máximas alcanzadas, se realizaron análisis de varianza para establecer diferencias estadísticas entre los tratamientos y las repeticiones. De manera general la epidemia de roya se hace evidente en agosto y septiembre manteniéndose siempre en aumento, alcanzando los máximos valores en enero y febrero. De los tratamientos en estudio podemos decir que las aplicaciones de cobre calendarizado y con 10 por ciento de incidencia acumulada, presentaron la menor incidencia para la epidemia de roya, sin embargo en el cobre de aplicación calendarizada el efecto de cobre se observa mejor por lo que presenta el mejor comportamiento. En el caso de Bt no se logró determinar su efecto a nivel de campo, a la dosis empleada y en el momento aplicado, su comportamiento fue similar al testigo, quien presentó los mayores porcentajes de acumulados. Para el caso de mancha de hierro se observó una menor incidencia bajo el efecto de aplicaciones calendarizadas. La epidemia de antracnosis no se consideró un problema grave, debido a que los acumulados finales no sobre pasaron el nivel considerado riesgoso (15 por ciento).
Resumo:
Se realizó un estudio en tres agroecosistemas de café con los objetivos de comparar tres métodos de cuantificación de enfermedades foliares del café, determinar el parámetro a estimar en la medición de la intensidad de la enfermedad (incidencia y/o severidad) considerando las característica físicas y biológicas de cada agroecosistema y proponer un tamaño de muestra que teniendo un costo menor principalmente en cuanto al tiempo, permita estimar la cantidad de enfermedad con una precisión determinada. Se seleccionaron 7 personas para que hicieran lecturas de dos enfermedades foliares en un cafetal, utilizando tres métodos de cuantificación de enfermedades y luego se compararon los métodos, usando para ello el coeficiente de variabilidad de la interacción métodos-personas. Se seleccionaron fincas con regímenes climáticos diferentes y en cada una se seleccionó un lote, en el cual se seleccionaron al azar cinco conglomerados de cinco plantas cada uno y en cada planta se marcaron al azar 6 bandolas para dar un total de 150 bandolas en el lote de observación. En cada bandola se hicieron lecturas semanales de incidencia y severidad1 también se recolectó información concerniente al nivel tecnológico, el manejo agronómico y las características físicas del lote observado. Con los datos obtenidos se hizo un estudio de la correlación incidencia-severidad y con base en una propuesta para el tamaño y arreglo de la muestra, también se hizo un estudio del tamaño y arreglo de la muestra y se calculó la eficiencia relativa del muestreo por conglomerados. El método de estimación visual fue el que presentó la menor variabilidad y el mayor ahorro de tiempo y esfuerzo físico en relación a los métodos basados en escala. No se puede generalizar un modelo de regresión único para la relación, incidencia-severidad ya que ésta cambia de acuerdo a un sin número de factores del agroecosistema, entre los cuales el patosistema, el microambiente y el mesoambiente parecen ser los más importantes. De las enfermedades foliares en café como roya, mancha de hierro y antracnosis es suficiente medir la incidencia. El tamaño de muestra aquí propuesto para evaluar porcentajes (bajos) de incidencia para las tres enfermedades en estudio es de 15 plantas distribuidas en 5 conglomerados de 3 plantas cada uno. Se pudo comprobar que las tres enfermedades en estudio se comportan de forma agregada consistentemente: la varianza es mayor que la media (o2 >m), al aplicar a los datos la ley ponderada de Taylor estos cumplen con la regla de que el coeficiente de regresión es mayor que uno (b > l) y, para cada enfermedad la varianza entre plantas es mayor que la varianza entre conglomerados (sitios).
Resumo:
基于强度分布变换的高功率激光进行了活塞热疲劳模拟实验。为摸索该实验系统下的实验参数,深入研究了激光能量分布、加载功率、加载周期(升温时间和降温时间)和输出波形等对活塞热疲劳实验的影响,实验表明调节这些参数可以控制活塞顶部温度场分布、温度循环的平均温度、温度差和循环频率,并结合热疲劳相关理论探讨了激光参数对热疲劳寿命影响的规律。
Resumo:
El presente estudio se desarrolló durante la época de postrera (1996) en la zona de Ticuantepe, Managua, en las localidades de Buenos Aires, El Edén y Cebadilla, con los objetivos de conocer y profundizar en la problemática agronómica y socioeconómica que se presenta en la producción de frijol (Phaseolus vulgaris L) en el área de estudio, y específicamente investigar que factores de producción están limitando el potencial de rendimiento del cultivo. Como criterio principal se consideró el nivel tecnológico de los productores, definiendo tres grupos de tecnología: tecnología alta, tecnología media y tecnología baja. Se tomaron como muestra veinte productores. La información se recolectó a través de encuesta semi-estructurada, abordando los aspectos involucrados en la producción de frijol tanto agronómicos como socioeconómicos, se aplicó una hoja de campo para analizar los componentes del rendimiento, se calculó la producción estimada para realizar análisis de rendimiento y rentabilidad del cultivo al igual que se realizaron consultas con las instituciones de apoyo al agro que se desempeñan en la zona en diversos aspectos. Los resultados del estudio muestran que existe poca asistencia técnica de parte de las instituciones de apoyo a la agricultura y ausencia de planes de apoyo crediticio de cualquier modalidad. En referencia al manejo agronomico el estudio mostro que existen deficiencias especialmente en lo que se refiere a la fertilización, manejo de plagas y enfermedades debido a la falta de conocimientos basicos de los productores en estos aspectos. De igual forma los criterios de fertilización no están bien definidos, por lo que es comun el mal uso de formulas y dosis del fertilizante. Los productores de tecnologia alta presentan buena rentabilidad con un promedio de 359.21 por ciento de acuerdo a los rendimientos estimados y valor de venta del producto. De igual forma los productores de tecnología media obtienen buena rentabilidad con un promedio de 281.4 por ciento, a excepción de un productor que obtuvo rentabilidad negativa (24.90). Los productores de tecnología baja tienen los rendimientos estimados y rentabilidades más bajas con un promedio de 169.64 por ciento, y aún así, de ocho productores solo tres obtienen rentabilidad negativa (25.4, 47.60 y 22.10 por ciento), lo que demuestra que el cultivo de frijol si es un cultivo rentable a pesar de las diferentes problemáticas que presentan los productores, al igual que se perfila como un cultivo que pasa a ser de subsistencia a un cultivo que genera ganancias.
Resumo:
Resumen: Lotus tenuis es una valiosa leguminosa forrajera naturalizada en la Pampa Deprimida. Presenta una reconocida tolerancia al anegamiento y a la salinidad, postulándose como una especie clave para la producción ganadera de la zona. El objetivo del trabajo fue evaluar la influencia del estrés salino en el crecimiento vegetativo de dos familias de medios hermanos de L. tenuis, una reconocida como tolerante a la salinidad y la otra como susceptible. El ensayo se realizó bajo invernáculo en macetas con cinco plantas cada una. Se llevaron a cabo tres tratamientos, uno control y dos salinos con 75mM y 150mM NaCl desde la cuarta hoja pentafoliada desplegada hasta la aparición de la primera flor. Se tomaron datos de temperatura, actividad eléctrica del suelo y radiación. En total se analizaron ocho variables (% de materia seca (MS) en tallo y hoja, y en corona y raíz; MS de tallo y hoja, y de corona y raíz; MS de tallo y de hoja; relación MS aérea/MS radicular y MS tallo/MS hoja) a través de análisis de varianzas y LSD Fisher (p < 0,05) comparando entre genotipos y entre dosis. Se encontró interacción entre los factores en dos variables, % MS en corona y raíz, y en MS de tallo. Con respecto a las dosis se encontraron diferencias significativas para todas las variables, mientras que para el genotipo solo ocurrió en tres variables, MS de tallos y hojas, relación MS aérea/MS radicular, y MS de hojas. Frente a las dosis salinas se redujo la producción de MS y solo aumentó el % de MS. Para evaluar la performance de cada genotipo frente al estrés salino, se calculó expresando en porcentaje, la respuesta de cada uno en las dosis salinas frente a los tratamientos testigos. Evaluando la performance de estos genotipos, se considera que se deberían buscar líneas con un mejor comportamiento frente a la salinidad para los programas de mejoramiento forrajero de esta especie.