978 resultados para Digital surface model (DSM)
Resumo:
Response Surface Methodology (RSM) was applied to evaluate the chromatic features and sensory acceptance of emulsions that combine Soy Protein (SP) and red Guava Juice (GJ). The parameters analyzed were: instrumental color based on the coordinates a* (redness), b* (yellowness), L* (lightness), C* (chromaticity), h* (hue angle), visual color, acceptance, and appearance. The analyses of the results showed that GJ was responsible for the high measured values of red color, hue angle, chromaticity, acceptance, and visual color, whereas SP was the variable that increased the yellowness intensity of the assays. The redness (R²adj = 74.86%, p < 0.01) and hue angle (R²adj = 80.96%, p < 0.01) were related to the independent variables by linear models, while the sensory data (color and acceptance) could not be modeled due to a high variability. The models of yellowness, lightness, and chromaticity did not present lack of fit but presented adjusted determination coefficients bellow 70%. Notwithstanding, the linear correlations between sensory and instrumental data were not significant (p > 0.05) and low Pearson coefficients were obtained. The results showed that RSM is a useful tool to develop soy-based emulsions and model some chromatic features of guava-based emulsions through RSM.
Resumo:
This study aims to optimize an alternative method of extraction of carrageenan without previous alkaline treatment and ethanol precipitation using Response Surface Methodology (RSM). In order to introduce an innovation in the isolation step, atomization drying was used reducing the time for obtaining dry carrageenan powder. The effects of extraction time and temperature on yield, gel strength, and viscosity were evaluated. Furthermore, the extracted material was submitted to structural analysis, by infrared spectroscopy and nuclear magnetic resonance spectroscopy (¹H-NMR), and chemical composition analysis. Results showed that the generated regression models adequately explained the data variation. Carrageenan yield and gel viscosity were influenced only by the extraction temperature. However, gel strength was influenced by both, extraction time and extraction temperature. Optimal extraction conditions were 74 ºC and 4 hours. In these conditions, the carrageenan extract properties determined by the polynomial model were 31.17%, 158.27 g.cm-2, and 29.5 cP for yield, gel strength, and viscosity, respectively, while under the experimental conditions they were 35.8 ± 4.68%, 112.50 ± 4.96 g.cm-2, and 16.01 ± 1.03 cP, respectively. The chemical composition, nuclear magnetic resonance spectroscopy, and infrared spectroscopy analyses showed that the crude carrageenan extracted is composed mainly of κ-carrageenan.
Resumo:
The computer game industry has grown steadily for years, and in revenues it can be compared to the music and film industries. The game industry has been moving to digital distribution. Computer gaming and the concept of business model are discussed among industrial practitioners and the scientific community. The significance of the business model concept has increased in the scientific literature recently, although there is still a lot of discussion going on on the concept. In the thesis, the role of the business model in the computer game industry is studied. Computer game developers, designers, project managers and organization leaders in 11 computer game companies were interviewed. The data was analyzed to identify the important elements of computer game business model, how the business model concept is perceived and how the growth of the organization affects the business model. It was identified that the importance of human capital is crucial to the business. As games are partly a product of creative thinking also innovation and the creative process are highly valued. The same applies to technical skills when performing various activities. Marketing and customer relationships are also considered as key elements in the computer game business model. Financing and partners are important especially for startups, when the organization is dependent on external funding and third party assets. The results of this study provide organizations with improved understanding on how the organization is built and what business model elements are weighted.
Resumo:
Architectural model of Moulton Hall Fine Arts Complex, Chapman College, Orange, California. Completed in 1975 (2 floors, 44,592 sq.ft.), this building is named in memory of an artist and patroness of the arts, Nellie Gail Moulton. Within this structure are the departments of Art, Communications, and Theatre/Dance as well as the Guggenheim Gallery and Waltmar Theatre. Model photographed by Rene Laursen, Santa Ana, California.
Resumo:
Architectural model of the Pralle-Sodaro Residence Hall, Chapman University, Orange, California, dedicated October 21, 1991. Pralle-Sodaro Hall (3 floors, 75,382 sq.ft.) is a three-story building containing one-hundred-fifty-five units. This state-of-the-art residence hall was made possible by the tremendous generosity of Bob and Helga Pralle and Don and DeeDee Sodaro. Bob Pralle served as a trustee for eighteen years beginning in 1984 and Don Sodaro as Chairman of the board of trustees and has served on the board for fourteen years beginning in 1988. Pralle-Sodaro Hall (3 floors, 75,382 sq.ft.) is a three-story building containing one-hundred-fifty-five units.
Resumo:
La Fibrose Kystique (FK) est une maladie dégénérative qui entraine une dégénération des poumons dû au problème de clairance mucociliaire (CMC). Le volume de surface liquide (SL) couvrant les cellules pulmonaires est essentiel à la clairance de mucus et au combat contre les infections. Les nucléotides extracellulaires jouent un rôle important dans la CMC des voies aériennes, en modifiant le volume de la SL pulmonaire. Cependant, les mécanismes du relâchement de l’ATP et de leurs déplacements à travers la SL, restent inconnus. Des études ultérieures démontrent que l’exocytose d’ATP mécano-sensible et Ca2+-dépendant, dans les cellules A549, est amplifié par les actions synergétiques autocrine/paracrine des cellules avoisinantes. Nous avions comme but de confirmer la présence de la boucle purinergique dans plusieurs modèles de cellules épithéliales et de développer un système nous permettant d’observer directement la SL. Nous avons démontrés que la boucle purinergique est fonctionnelle dans les modèles de cellules épithéliales examinés, mis appart les cellules Calu-3. L’utilisation de modulateur de la signalisation purinergique nous a permis d’observer que le relâchement d’ATP ainsi que l’augmentation du [Ca2+]i suivant un stress hypotonique, sont modulés par le biais de cette boucle purinergique et des récepteurs P2Y. De plus, nous avons développé un système de microscopie qui permet d’observer les changements de volume de SL en temps réel. Notre système permet de contrôler la température et l’humidité de l’environnement où se trouvent les cellules, reproduisant l’environnement pulmonaire humain. Nous avons démontré que notre système peut identifier même les petits changements de volume de SL.
Resumo:
Introduction: Le but de l’étude était d’examiner l’effet des matériaux à empreintes sur la précision et la fiabilité des modèles d’études numériques. Méthodes: Vingt-cinq paires de modèles en plâtre ont été choisies au hasard parmi les dossiers de la clinique d’orthodontie de l’Université de Montréal. Une empreinte en alginate (Kromopan 100), une empreinte en substitut d’alginate (Alginot), et une empreinte en PVS (Aquasil) ont été prises de chaque arcade pour tous les patients. Les empreintes ont été envoyées chez Orthobyte pour la coulée des modèles en plâtre et la numérisation des modèles numériques. Les analyses de Bolton 6 et 12, leurs mesures constituantes, le surplomb vertical (overbite), le surplomb horizontal (overjet) et la longueur d’arcade ont été utilisés pour comparaisons. Résultats : La corrélation entre mesures répétées était de bonne à excellente pour les modèles en plâtre et pour les modèles numériques. La tendance voulait que les mesures répétées sur les modèles en plâtre furent plus fiables. Il existait des différences statistiquement significatives pour l’analyse de Bolton 12, pour la longueur d’arcade mandibulaire, et pour le chevauchement mandibulaire, ce pour tous les matériaux à empreintes. La tendance observée fut que les mesures sur les modèles en plâtre étaient plus petites pour l’analyse de Bolton 12 mais plus grandes pour la longueur d’arcade et pour le chevauchement mandibulaire. Malgré les différences statistiquement significatives trouvées, ces différences n’avaient aucune signification clinique. Conclusions : La précision et la fiabilité du logiciel pour l’analyse complète des modèles numériques sont cliniquement acceptables quand on les compare avec les résultats de l’analyse traditionnelle sur modèles en plâtre.
Resumo:
Ce mémoire s'inscrit dans le domaine de la vision par ordinateur. Elle s'intéresse à la calibration de systèmes de caméras stéréoscopiques, à la mise en correspondance caméra-projecteur, à la reconstruction 3D, à l'alignement photométrique de projecteurs, au maillage de nuages de points, ainsi qu'au paramétrage de surfaces. Réalisé dans le cadre du projet LightTwist du laboratoire Vision3D, elle vise à permettre la projection sur grandes surfaces arbitraires à l'aide de plusieurs projecteurs. Ce genre de projection est souvent utilisé en arts technologiques, en théâtre et en projection architecturale. Dans ce mémoire, on procède au calibrage des caméras, suivi d'une reconstruction 3D par morceaux basée sur une méthode active de mise en correspondance, la lumière non structurée. Après un alignement et un maillage automatisés, on dispose d'un modèle 3D complet de la surface de projection. Ce mémoire introduit ensuite une nouvelle approche pour le paramétrage de modèles 3D basée sur le calcul efficace de distances géodésiques sur des maillages. L'usager n'a qu'à délimiter manuellement le contour de la zone de projection sur le modèle. Le paramétrage final est calculé en utilisant les distances obtenues pour chaque point du modèle. Jusqu'à maintenant, les méthodes existante ne permettaient pas de paramétrer des modèles ayant plus d'un million de points.
Resumo:
Au cours de la dernière décennie, les nanoparticules ont connu un essor sans précédent dans plusieurs domaines. On peut retrouver ces nanoparticules dans des secteurs aussi variés tels que la médecine, l’électronique, les écrans solaires, les cosmétiques et les plastiques, pour ne nommer que ceux-là. Cette utilisation massive a eu un effet pervers sur l’environnement, sachant qu’une grande partie de ces produits se sont retrouvés inévitablement dans les milieux naturels. Plusieurs études révèlent qu’autant la présence des nanoparticules que leurs produits de dissolution sont à prendre en considération lorsque des travaux toxicologiques ou le devenir de ces matériaux sont étudiés. Il est désormais clair que les propriétés de surface de ces nanoparticules jouent un rôle central sur leur comportement dans les solutions aqueuses; que ce soit les interactions avec des organismes ou entre les particules elles-mêmes. Afin d’évaluer le devenir de nZnO, une étude sur la dissolution ainsi que la bioaccumulation a été réalisée avec l’algue modèle Chlamydomonas reinhardtii en présence de nanoparticules ayant différents enrobages. Les nanoparticules d’oxyde de zinc suivantes ont été étudiées : (i) nZnO sans enrobage (nZnO); (ii) nZnO avec enrobage d’acide polyacrylique (nZnO-PAA) et (iii) nZnO avec enrobage d’hexamétaphosphate de sodium (nZnO-HMP). La dissolution était mesurée à l’aide de trois techniques : ultrafiltration par centrifugation (CU); technique potentiométrique (scanned stripping chronopotentiometry, SSCP) et spectrométrie de masse – plasma à couplage inductif couplé à une résine échangeuse d’ions (resin-based inductively coupled plasma-mass spectrometry, resin-based ICP-MS). Les résultats obtenus démontrent une grande tendance à la dissolution pour le nZnO (presque totale) tandis que pour le nZnO-PAA et le nZnO-HMP, la dissolution est dépendante de la nature de l’enrobage le composant. Pour la bioaccumulation sur l’algue testée, les données montrent une grande dépendance au zinc libre issu de la dissolution pour nZnO et nZnO-PAA. À l’inverse, le nZnO-HMP démontre une bioaccumulation plus élevée par comparaison aux mêmes concentrations d’expositions du zinc libre, expliquée par la stimulation de l’internalisation du zinc provoqué par la présence de phosphate constituant l’enrobage de nZnO-HMP.
Resumo:
Ce mémoire présente une analyse comparative des paramètres atmosphériques obtenus à l’aide des techniques photométrique et spectroscopique. Pour y parvenir, les données photométriques et spectroscopiques de 1375 naines blanches de type DA tirées du Sloan Digital Sky Survey (SDSS) ainsi que les données spectroscopiques du Villanova White Dwarf Catalog ont été utilisées. Il a d’abord fallu s’assurer que les données photométriques et spectroscopiques étaient bien calibrées. L’analyse photométrique a démontré que la photométrie ugriz ne semblait pas avoir de problème de calibration autre que le décalage des points zéro, qui est compensé en appliquant les corrections photométriques appropriées. De plus, le fait que le filtre u laisse passer le flux à certaines longueurs d’onde dans le rouge ne semble pas affecter la détermination des paramètres atmosphériques. L’analyse spectroscopique a ensuite confirmé que l’application de fonctions de correction permettant de tenir compte des effets hydrodynamiques 3D est la solution au problème de log g élevés. La comparaison des informations tirées des données spectroscopiques des deux différentes sources suggère que la calibration des spectres du SDSS n’est toujours pas au point. Les paramètres atmosphériques déterminés à l’aide des deux techniques ont ensuite été comparés et les températures photométriques sont systématiquement plus faibles que celles obtenues à partir des données spectroscopiques. Cet effet systématique pourrait être causé par les profils de raies utilisés dans les modèles d’atmosphère. Une méthode permettant d’obtenir une estimation de la gravité de surface d’une naine blanche à partir de sa photométrie a aussi été développée.
Pro-inflammatory and angiogenic activities of VEGF and angiopoietins in murine sponge/Matrigel model
Resumo:
La dérégulation de la formation et l'intégrité des vaisseaux sanguins peut conduire à un état pathologique tel qu’observé dans de nombreuses maladies ischémiques telles que: la croissance de tumeur solide, l’arthrite rhumatoïde, le psoriasis, les rétinopathies et l'athérosclérose. Par conséquent, la possibilité de moduler l'angiogenèse régionale chez les patients souffrant d'ischémie est cliniquement pertinente. Un élément clé dans l'induction de l'angiogenèse pathologique est une inflammation qui précède et accompagne la formation des nouveaux vaisseaux. Ce phénomène est démontré par l'augmentation de la perméabilité vasculaire et le recrutement de monocytes/ macrophages et cellules polynucléaires (neutrophiles). En collaboration avec d'autres groupes, nous avons montré que différents facteurs de croissance tels que le facteur de croissance endothélial vasculaire et les angiopoïétines peuvent non seulement promouvoir l'angiogenèse mais aussi induire diverses étapes connexes au processus de la réaction inflammatoire, y compris la synthèse et la libération des médiateurs inflammatoires et la migration des neutrophiles. Les objectifs de notre étude étaient d'adresser si le vascular endothelial growth factor (VEGF) et les angiopoïétines (Ang1 et Ang2) sont capables de promouvoir la formation des nouveaux vaisseaux sanguins au fil du temps et d'identifier la présence de différentes cellules inflammatoires dans ce processus. Des éponges d'alcool polyvinylique stérilisées et imbibées de Matrigel appauvri en facteur de croissance (contenant PBS, VEGF, Ang1 ou Ang2 (200 ng/200 μl)) ont été insérées sous la peau de souris C57/Bl6 anesthésiées. Les éponges ont ensuite été retirées aux jours 4, 7, 14 ou 21 après la procédure pour des analyses histologiques, immunohistologiques et cytométriques. La formation des nouveaux vaisseaux a été validée par la coloration au Trichrome de Masson et des analyses histologiques et immunohistologiques contre les cellules endothéliales (anti-CD31). De plus, la maturation des vaisseaux a été démontrée par la coloration séquentielle contre les cellules endothéliales (anti-CD31) et musculaires lisses (anti-alpha-actine). Nous avons effectué la même procédure pour caractériser le recrutement de neutrophiles (anti-MPO), et de macrophages (anti-F4/80). Afin de mieux délimiter la présence de différents sous-ensembles de leucocytes recrutés dans les éponges, nous avons utilisé une technique de cytométrie en flux sur des préparations de cellules isolées à partir de ces éponges. Nous avons observé que le VEGF et les angiopoïétines favorisent le recrutement de cellules endothéliales et la formation de nouveaux vaisseaux plus rapidement qu’en présence de PBS. Une fois formé au jour 7, ces nouveaux vaisseaux restent stables en nombre, et ne subissent pas une réorganisation importante de leur surface. Ces vaisseaux maturent grâce au recrutement et au recouvrement par les cellules musculaires lisses des néovaisseaux. En outre, le microenvironnement angiogénique est composé de cellules inflammatoires, principalement de neutrophiles, macrophages et quelques cellules de type B et T. Donc, le VEGF, l’Ang1 et l’Ang2 induisent séparément la formation et la stabilisation de nouveaux vaisseaux sanguins, ainsi que le recrutement de cellules inflammatoires avec des puissances différentes et une action temps-dépendante dans un modèle d’éponge/Matrigel.
Resumo:
As shown by different scholars, the idea of “author” is not absolute or necessary. On the contrary, it came to life as an answer to the very practical needs of an emerging print technology in search of an economic model of its own. In this context, and according to the criticism of the notion of “author” made during the 1960–70s (in particular by Barthes and Foucault), it would only be natural to consider the idea of the author being dead as a global claim accepted by all scholars. Yet this is not the case, because, as Rose suggests, the idea of “author” and the derived notion of copyright are still too important in our culture to be abandoned. But why such an attachment to the idea of “author”? The hypothesis on which this chapter is based is that the theory of the death of the author—developed in texts such as What is an Author? by Michel Foucault and The Death of the Author by Roland Barthes—did not provide the conditions for a shift towards a world without authors because of its inherent lack of concrete editorial practices different from the existing ones. In recent years, the birth and diffusion of the Web have allowed the concrete development of a different way of interpreting the authorial function, thanks to new editorial practices—which will be named “editorialization devices” in this chapter. Thus, what was inconceivable for Rose in 1993 is possible today because of the emergence of digital technology—and in particular, the Web.
Resumo:
A method for the construction of a patient-specific model of a scoliotic torso for surgical planning via inter- patient registration is presented. Magnetic Resonance Images (MRI) of a generic model are registered to surface topography (TP) and X-ray data of a test patient. A partial model is first obtained via thin-plate spline registration between TP and X-ray data of the test patient. The MRIs from the generic model are then fit into the test patient using articulated model registration between the vertebrae of the generic model’s MRIs in prone position and the test patient’s X-rays in standing position. A non-rigid deformation of the soft tissues is performed using a modified thin-plate spline constrained to maintain bone rigidity and to fit in the space between the vertebrae and the surface of the torso. Results show average Dice values of 0.975 ± 0.012 between the MRIs following inter-patient registration and the surface topography of the test patient, which is comparable to the average value of 0.976 ± 0.009 previously obtained following intra-patient registration. The results also show a significant improvement compared to rigid inter-patient registration. Future work includes validating the method on a larger cohort of patients and incorporating soft tissue stiffness constraints. The method developed can be used to obtain a geometric model of a patient including bone structures, soft tissues and the surface of the torso which can be incorporated in a surgical simulator in order to better predict the outcome of scoliosis surgery, even if MRI data cannot be acquired for the patient.
Resumo:
Réalisé en cotutelle avec Aix Marseille Université.
Resumo:
La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.