848 resultados para diagonal orientation
Resumo:
In the primary visual cortex, neurons with similar physiological features are clustered together in columns extending through all six cortical layers. These columns form modular orientation preference maps. Long-range lateral fibers are associated to the structure of orientation maps since they do not connect columns randomly; they rather cluster in regular intervals and interconnect predominantly columns of neurons responding to similar stimulus features. Single orientation preference maps – the joint activation of domains preferring the same orientation - were observed to emerge spontaneously and it was speculated whether this structured ongoing activation could be caused by the underlying patchy lateral connectivity. Since long-range lateral connections share many features, i.e. clustering, orientation selectivity, with visual inter-hemispheric connections (VIC) through the corpus callosum we used the latter as a model for long-range lateral connectivity. In order to address the question of how the lateral connectivity contributes to spontaneously generated maps of one hemisphere we investigated how these maps react to the deactivation of VICs originating from the contralateral hemisphere. To this end, we performed experiments in eight adult cats. We recorded voltage-sensitive dye (VSD) imaging and electrophysiological spiking activity in one brain hemisphere while reversible deactivating the other hemisphere with a cooling technique. In order to compare ongoing activity with evoked activity patterns we first presented oriented gratings as visual stimuli. Gratings had 8 different orientations distributed equally between 0º and 180º. VSD imaged frames obtained during ongoing activity conditions were then compared to the averaged evoked single orientation maps in three different states: baseline, cooling and recovery. Kohonen self-organizing maps were also used as a means of analysis without prior assumption (like the averaged single condition maps) on ongoing activity. We also evaluated if cooling had a differential effect on evoked and ongoing spiking activity of single units. We found that deactivating VICs caused no spatial disruption on the structure of either evoked or ongoing activity maps. The frequency with which a cardinally preferring (0º or 90º) map would emerge, however, decreased significantly for ongoing but not for evoked activity. The same result was found by training self-organizing maps with recorded data as input. Spiking activity of cardinally preferring units also decreased significantly for ongoing when compared to evoked activity. Based on our results we came to the following conclusions: 1) VICs are not a determinant factor of ongoing map structure. Maps continued to be spontaneously generated with the same quality, probably by a combination of ongoing activity from local recurrent connections, thalamocortical loop and feedback connections. 2) VICs account for a cardinal bias in the temporal sequence of ongoing activity patterns, i.e. deactivating VIC decreases the probability of cardinal maps to emerge spontaneously. 3) Inter- and intrahemispheric long-range connections might serve as a grid preparing primary visual cortex for likely junctions in a larger visual environment encompassing the two hemifields.
Resumo:
La presente tesis doctoral aborda el conflicto entre texto e imagen en la producción de conocimiento y más especialmente incide sobre la forma en la que tal conflicto opera dentro del ámbito de la investigación en arte y desde el arte. Se parte pues de la hipótesis de que hay un repertorio de imágenes de la materia escrita – como una suerte de imaginación textual desatendida – que es transversal a las humanidades y que a menudo se encuentra naturalizada como algo inerte o simplemente poco atractivo. Una estética insignificante del conocimiento académico que sin embargo sirve de puente entre las llamadas prácticas artísticas y las propiamente científicas y/o universitarias. Para dar lugar a una definición de esta plástica de lo textual – que sería distinta de la prosodia o la poética del texto más literario – la investigación se articula a través de una serie de casos de estudio cuyo eje no es aleatorio sino diagonal tal y como lo planteaba Roger Caillois a principios de los años 60. Así, las categorías de estudio de esta investigación parten de detalles inéditos, en tanto que apenas han sido enunciados con anterioridad, y atraviesan ámbitos que van desde la biología del camuflaje hasta la bibliografía, pasando por la epistemología, el discurso amateur y el diseño del espacio propio de una biblioteca. Estos hilos conductores aparentemente imprevistos tratan de revelar por contra ciertos principios consistentes del texto según se ensaya, se distribuye y se imagina a sí mismo, ejemplificando así los diferentes grados de contaminación – o dicho de otra forma más cercana a lo visual, los diferentes grados de montaje, revisión e instalación – a los que se somete habitualmente todo texto del conocimiento...
Resumo:
Peer reviewed
Resumo:
Ce mémoire s’intéresse au concept de crise, économique et politique, comme source de changement idéologique et politique. Au travers de l’étude de l’austérité économique, il sera possible d’identifier des différences majeures entre deux épisodes de troubles économiques importants, la Grande Dépression et la Grande Récession. Alors que la Grande Dépression est caractérisée par une double crise, économique et politique, la Grande Récession, elle, demeure un choc essentiellement économique. L’absence de contagion dans le système politique explique la ténacité d’une idée comme l’austérité, de retour depuis la révolution néolibérale des années 80. L’austérité économique s’est adaptée et s’aligne maintenant aux intérêts d’une frange importante de la coalition démocrate. La persistance de l’allure des coalitions politiques depuis le dernier grand réalignement témoigne de l’absence de transformation majeure du mode d’action étatique, ce qui constitue une différence importante entre les deux crises.
Resumo:
In this study, we developed and improved the numerical mode matching (NMM) method which has previously been shown to be a fast and robust semi-analytical solver to investigate the propagation of electromagnetic (EM) waves in an isotropic layered medium. The applicable models, such as cylindrical waveguide, optical fiber, and borehole with earth geological formation, are generally modeled as an axisymmetric structure which is an orthogonal-plano-cylindrically layered (OPCL) medium consisting of materials stratified planarly and layered concentrically in the orthogonal directions.
In this report, several important improvements have been made to extend applications of this efficient solver to the anisotropic OCPL medium. The formulas for anisotropic media with three different diagonal elements in the cylindrical coordinate system are deduced to expand its application to more general materials. The perfectly matched layer (PML) is incorporated along the radial direction as an absorbing boundary condition (ABC) to make the NMM method more accurate and efficient for wave diffusion problems in unbounded media and applicable to scattering problems with lossless media. We manipulate the weak form of Maxwell's equations and impose the correct boundary conditions at the cylindrical axis to solve the singularity problem which is ignored by all previous researchers. The spectral element method (SEM) is introduced to more efficiently compute the eigenmodes of higher accuracy with less unknowns, achieving a faster mode matching procedure between different horizontal layers. We also prove the relationship of the field between opposite mode indices for different types of excitations, which can reduce the computational time by half. The formulas for computing EM fields excited by an electric or magnetic dipole located at any position with an arbitrary orientation are deduced. And the excitation are generalized to line and surface current sources which can extend the application of NMM to the simulations of controlled source electromagnetic techniques. Numerical simulations have demonstrated the efficiency and accuracy of this method.
Finally, the improved numerical mode matching (NMM) method is introduced to efficiently compute the electromagnetic response of the induction tool from orthogonal transverse hydraulic fractures in open or cased boreholes in hydrocarbon exploration. The hydraulic fracture is modeled as a slim circular disk which is symmetric with respect to the borehole axis and filled with electrically conductive or magnetic proppant. The NMM solver is first validated by comparing the normalized secondary field with experimental measurements and a commercial software. Then we analyze quantitatively the induction response sensitivity of the fracture with different parameters, such as length, conductivity and permeability of the filled proppant, to evaluate the effectiveness of the induction logging tool for fracture detection and mapping. Casings with different thicknesses, conductivities and permeabilities are modeled together with the fractures in boreholes to investigate their effects for fracture detection. It reveals that the normalized secondary field will not be weakened at low frequencies, ensuring the induction tool is still applicable for fracture detection, though the attenuation of electromagnetic field through the casing is significant. A hybrid approach combining the NMM method and BCGS-FFT solver based integral equation has been proposed to efficiently simulate the open or cased borehole with tilted fractures which is a non-axisymmetric model.
Resumo:
This report contains the invited lectures from day 2 of a Spatial Orientation Symposium in honor of the late Dr. Frederick Guedry, held at the Institute of Human and Machine Cognition (IHMC) in Pensacola, Florida in November of 2010. The conference was sponsored by the Coalition Warfare Program of the Office of the Under Secretary of Defense for Acquisition, Technology, and Logistics. It was organized by Drs. Angus Rupert and Ben Lawson (USAARL) and hosted by Drs. Anil Raj and Ken Ford (IHMC). The lectures from day 1 are in Lawson et al., 2014. Day 2 includes lectures by Drs. Scott, Ben Lawson, Angus Rupert, Owen Black, Karen Atkins, Kim Gottshall, Anil Raj, and Måns Magnusson. The lectures focus on the structure, function and reflexes of the vestibular system, orientation perceptions, motion sickness, adaptation, and rehabilitation. This report also features banquet talks given by Drs. Lawson and Rupert, in which they honor Dr. Fred Guedry. Also featured is an interview with Dr. Guedry, conducted by a Navy historian, in which the reader can catch a glimpse into Dr. Guedry's wartime experiences and early days as a researcher.
Resumo:
Electrospun nanofibers are a promising material for ligamentous tissue engineering, however weak mechanical properties of fibers to date have limited their clinical usage. The goal of this work was to modify electrospun nanofibers to create a robust structure that mimics the complex hierarchy of native tendons and ligaments. The scaffolds that were fabricated in this study consisted of either random or aligned nanofibers in flat sheets or rolled nanofiber bundles that mimic the size scale of fascicle units in primarily tensile load bearing soft musculoskeletal tissues. Altering nanofiber orientation and geometry significantly affected mechanical properties; most notably aligned nanofiber sheets had the greatest modulus; 125% higher than that of random nanofiber sheets; and 45% higher than aligned nanofiber bundles. Modifying aligned nanofiber sheets to form aligned nanofiber bundles also resulted in approximately 107% higher yield stresses and 140% higher yield strains. The mechanical properties of aligned nanofiber bundles were in the range of the mechanical properties of the native ACL: modulus=158±32MPa, yield stress=57±23MPa and yield strain=0.38±0.08. Adipose derived stem cells cultured on all surfaces remained viable and proliferated extensively over a 7 day culture period and cells elongated on nanofiber bundles. The results of the study suggest that aligned nanofiber bundles may be useful for ligament and tendon tissue engineering based on their mechanical properties and ability to support cell adhesion, proliferation, and elongation.
Resumo:
Das Verfahren der Lebensmitteltrocknung wird häufig angewendet, um ein Produkt für längere Zeit haltbar zu machen. Obst und Gemüse sind aufgrund ihres hohen Wassergehalts leicht verderblich durch biochemische Vorgänge innerhalb des Produktes, nicht sachgemäße Lagerung und unzureichende Transportmöglichkeiten. Um solche Verluste zu vermeiden wird die direkte Trocknung eingesetzt, welche die älteste Methode zum langfristigen haltbarmachen ist. Diese Methode ist jedoch veraltet und kann den heutigen Herausforderungen nicht gerecht werden. In der vorliegenden Arbeit wurde ein neuer Chargentrockner, mit diagonalem Luftstömungskanal entlang der Länge des Trocknungsraumes und ohne Leitbleche entwickelt. Neben dem unbestreitbaren Nutzen der Verwendung von Leitblechen, erhöhen diese jedoch die Konstruktionskosten und führen auch zu einer Erhöhung des Druckverlustes. Dadurch wird im Trocknungsprozess mehr Energie verbraucht. Um eine räumlich gleichmäßige Trocknung ohne Leitbleche zu erreichen, wurden die Lebensmittelbehälter diagonal entlang der Länge des Trockners platziert. Das vorrangige Ziel des diagonalen Kanals war, die einströmende, warme Luft gleichmäßig auf das gesamte Produkt auszurichten. Die Simulation des Luftstroms wurde mit ANSYS-Fluent in der ANSYS Workbench Plattform durchgeführt. Zwei verschiedene Geometrien der Trocknungskammer, diagonal und nicht diagonal, wurden modelliert und die Ergebnisse für eine gleichmäßige Luftverteilung aus dem diagonalen Luftströmungsdesign erhalten. Es wurde eine Reihe von Experimenten durchgeführt, um das Design zu bewerten. Kartoffelscheiben dienten als Trocknungsgut. Die statistischen Ergebnisse zeigen einen guten Korrelationskoeffizienten für die Luftstromverteilung (87,09%) zwischen dem durchschnittlich vorhergesagten und der durchschnittlichen gemessenen Strömungsgeschwindigkeit. Um den Effekt der gleichmäßigen Luftverteilung auf die Veränderung der Qualität zu bewerten, wurde die Farbe des Produktes, entlang der gesamten Länge der Trocknungskammer kontaktfrei im on-line-Verfahren bestimmt. Zu diesem Zweck wurde eine Imaging-Box, bestehend aus Kamera und Beleuchtung entwickelt. Räumliche Unterschiede dieses Qualitätsparameters wurden als Kriterium gewählt, um die gleichmäßige Trocknungsqualität in der Trocknungskammer zu bewerten. Entscheidend beim Lebensmittel-Chargentrockner ist sein Energieverbrauch. Dafür wurden thermodynamische Analysen des Trockners durchgeführt. Die Energieeffizienz des Systems wurde unter den gewählten Trocknungsbedingungen mit 50,16% kalkuliert. Die durchschnittlich genutzten Energie in Form von Elektrizität zur Herstellung von 1kg getrockneter Kartoffeln wurde mit weniger als 16,24 MJ/kg und weniger als 4,78 MJ/kg Wasser zum verdampfen bei einer sehr hohen Temperatur von jeweils 65°C und Scheibendicken von 5mm kalkuliert. Die Energie- und Exergieanalysen für diagonale Chargentrockner wurden zudem mit denen anderer Chargentrockner verglichen. Die Auswahl von Trocknungstemperatur, Massenflussrate der Trocknungsluft, Trocknerkapazität und Heiztyp sind die wichtigen Parameter zur Bewertung der genutzten Energie von Chargentrocknern. Die Entwicklung des diagonalen Chargentrockners ist eine nützliche und effektive Möglichkeit um dei Trocknungshomogenität zu erhöhen. Das Design erlaubt es, das gesamte Produkt in der Trocknungskammer gleichmäßigen Luftverhältnissen auszusetzen, statt die Luft von einer Horde zur nächsten zu leiten.
Resumo:
La terminologie, telle quelle se pratique au Québec depuis une cinquantaine d'années, s'inscrit dans un projet d'aménagement linguistique qui vise à faire du français la langue d'utilisation commune sur le territoire québécois. La mise en œuvre de ce projet a été confiée à l'Office québécois de la langue française. Dans le cadre de la présente thèse, nous évaluons l'influence de l'aménagement linguistique sur l'orientation des travaux de terminologie à l'Office québécois de la langue française de 1961 à 2004. Notre objectif principal est de montrer que le projet d'aménagement linguistique a engendré une intense activité terminologique à la suite de l'adoption de diverses lois linguistiques au cours des cinquante dernières années. Plus précisément, nous analysons l'impact de ces lois sur le développement de la pratique de la terminologie. Pour ce faire, nous avons proposé six périodes qui caractérisent les travaux de terminologie de l'Office québécois de la langue française de 1961 à 2004. À l'intérieur de ces six périodes, nous analysons les mandats que les lois linguistiques ont confiés à l'Office et leurs répercussions sur l'orientation de ses travaux terminologiques. À l'instar de la problématique que nous avons esquissée au début de cette thèse, les résultats de notre recherche révèlent que la pratique de la terminologie est liée au projet de société que le Québec s'est donné pour assurer la défense du français sur son territoire. En outre, l'adoption des lois linguistiques a favorisé le développement de la pratique de la terminologie. Cette pratique a évolué en fonction des différents mandats confiés à l'Office québécois de la langue française qui a mis au point une méthodologie de travail en terminologie. C'est dans le cadre de l'aménagement linguistique que la terminologie s'est développée au Québec et qu'elle est devenue l'instrument clé de la mise en œuvre du projet d'aménagement linguistique québécois.
Resumo:
Les protéines membranaires intégrales jouent un rôle indispensable dans la survie des cellules et 20 à 30% des cadres de lectures ouverts codent pour cette classe de protéines. La majorité des protéines membranaires se trouvant sur la Protein Data Bank n’ont pas une orientation et une insertion connue. L’orientation, l’insertion et la conformation que les protéines membranaires ont lorsqu’elles interagissent avec une bicouche lipidique sont importantes pour la compréhension de leur fonction, mais ce sont des caractéristiques difficiles à obtenir par des méthodes expérimentales. Des méthodes computationnelles peuvent réduire le temps et le coût de l’identification des caractéristiques des protéines membranaires. Dans le cadre de ce projet de maîtrise, nous proposons une nouvelle méthode computationnelle qui prédit l’orientation et l’insertion d’une protéine dans une membrane. La méthode est basée sur les potentiels de force moyenne de l’insertion membranaire des chaînes latérales des acides aminés dans une membrane modèle composèe de dioléoylphosphatidylcholine.
Resumo:
Cubane is a peculiar cube-shaped alkane molecule with a rigid, regular structure. This makes it a good scaffold, i.e. a molecular platform to which the substituents are arranged in a specific and fixed orientation. Moreover, cubane has a body diagonal of 2.72 Å, very similar to the distance across the benzene ring, i.e. 2.79 Å. Thus, it would be possible to use cubane as a scaffold in medicinal and material chemistry as a benzene isostere 1,2. This could lead to advantages in terms of solubility and toxicity and could provide novel properties. For this purpose, the possibility of performing “modern organic chemistry” on the cubane scaffold has to be studied. This project was entirely carried out in the framework of the Erasmus+ mobility programme at the Trinity College (Dublin, IRL) under the supervision of prof. M. O. Senge. The main goal of this project was to widen the knowledge on cubane chemistry. In particular, it was decided to test reactions that were never applied to the scaffold before, such as metathesis of 4-iodo-1-vinylcubane and Stetter reaction of 1-iodocubane-4-carboxaldehyde. These two molecules were synthesized in 10 and 9 steps respectively from commercially available cyclopentanone, following a known procedure. Unfortunately, metathesis with different olefins, such as styrene, α,β unsaturated compounds and linear α-olefins failed under different conditions, highlighting cubane behaves as a Type IV, challenging olefin under metathesis conditions. Even the employment of a specific catalyst for hindered olefins failed in the cross-coupling with linear α-olefins. On the other hand, two new molecules were synthesized via Stetter reaction and benzoin condensation respectively. Even if the majority of the reactions were not successful, this work can be seen as an inspiration for further investigation on cubane chemistry, as new questions were raised and new opportunities were envisioned.
Resumo:
Structuring integrated social-ecological systems (SES) research remains a core challenge for achieving sustainability. Numerous concepts and frameworks exist, but there is a lack of mutual learning and orientation of knowledge between them. We focus on two approaches in particular: the ecosystem services concept and Elinor Ostrom’s diagnostic SES framework. We analyze the strengths and weaknesses of each and discuss their potential for mutual learning. We use knowledge types in sustainability research as a boundary object to compare the contributions of each approach. Sustainability research is conceptualized as a multi-step knowledge generation process that includes system, target, and transformative knowledge. A case study of the Southern California spiny lobster fishery is used to comparatively demonstrate how each approach contributes a different lens and knowledge when applied to the same case. We draw on this case example in our discussion to highlight potential interlinkages and areas for mutual learning. We intend for this analysis to facilitate a broader discussion that can further integrate SES research across its diverse communities.
Resumo:
Cette thèse s’inscrit dans le contexte d’une optimisation industrielle et économique des éléments de structure en BFUP permettant d’en garantir la ductilité au niveau structural, tout en ajustant la quantité de fibres et en optimisant le mode de fabrication. Le modèle développé décrit explicitement la participation du renfort fibré en traction au niveau local, en enchaînant une phase de comportement écrouissante suivie d’une phase adoucissante. La loi de comportement est fonction de la densité, de l’orientation des fibres vis-à-vis des directions principales de traction, de leur élancement et d’autres paramètres matériaux usuels liés aux fibres, à la matrice cimentaire et à leur interaction. L’orientation des fibres est prise en compte à partir d’une loi de probabilité normale à une ou deux variables permettant de reproduire n’importe quelle orientation obtenue à partir d’un calcul représentatif de la mise en oeuvre du BFUP frais ou renseignée par analyse expérimentale sur prototype. Enfin, le modèle reproduit la fissuration des BFUP sur le principe des modèles de fissures diffuses et tournantes. La loi de comportement est intégrée au sein d’un logiciel de calcul de structure par éléments finis, permettant de l’utiliser comme un outil prédictif de la fiabilité et de la ductilité globale d’éléments en BFUP. Deux campagnes expérimentales ont été effectuées, une à l’Université Laval de Québec et l’autre à l’Ifsttar, Marne-la-Vallée. La première permet de valider la capacité du modèle reproduire le comportement global sous des sollicitations typiques de traction et de flexion dans des éléments structurels simples pour lesquels l’orientation préférentielle des fibres a été renseignée par tomographie. La seconde campagne expérimentale démontre les capacités du modèle dans une démarche d’optimisation, pour la fabrication de plaques nervurées relativement complexes et présentant un intérêt industriel potentiel pour lesquels différentes modalités de fabrication et des BFUP plus ou moins fibrés ont été envisagés. Le contrôle de la répartition et de l’orientation des fibres a été réalisé à partir d’essais mécaniques sur prélèvements. Les prévisions du modèle ont été confrontées au comportement structurel global et à la ductilité mis en évidence expérimentalement. Le modèle a ainsi pu être qualifié vis-à-vis des méthodes analytiques usuelles de l’ingénierie, en prenant en compte la variabilité statistique. Des pistes d’amélioration et de complément de développement ont été identifiées.
Resumo:
Les logiciels actuels sont de grandes tailles, complexes et critiques. Le besoin de qualité exige beaucoup de tests, ce qui consomme de grandes quantités de ressources durant le développement et la maintenance de ces systèmes. Différentes techniques permettent de réduire les coûts liés aux activités de test. Notre travail s’inscrit dans ce cadre, est a pour objectif d’orienter l’effort de test vers les composants logiciels les plus à risque à l’aide de certains attributs du code source. À travers plusieurs démarches empiriques menées sur de grands logiciels open source, développés avec la technologie orientée objet, nous avons identifié et étudié les métriques qui caractérisent l’effort de test unitaire sous certains angles. Nous avons aussi étudié les liens entre cet effort de test et les métriques des classes logicielles en incluant les indicateurs de qualité. Les indicateurs de qualité sont une métrique synthétique, que nous avons introduite dans nos travaux antérieurs, qui capture le flux de contrôle ainsi que différentes caractéristiques du logiciel. Nous avons exploré plusieurs techniques permettant d’orienter l’effort de test vers des composants à risque à partir de ces attributs de code source, en utilisant des algorithmes d’apprentissage automatique. En regroupant les métriques logicielles en familles, nous avons proposé une approche basée sur l’analyse du risque des classes logicielles. Les résultats que nous avons obtenus montrent les liens entre l’effort de test unitaire et les attributs de code source incluant les indicateurs de qualité, et suggèrent la possibilité d’orienter l’effort de test à l’aide des métriques.