914 resultados para high dimensional data, call detail records (CDR), wireless telecommunication industry
Resumo:
A Budapesti Corvinus Egyetem Versenyképességkutató Központjának 2004-ben lekérdezett kérdőíve alapján, ami 154 feldolgozóipari vállalat adatait tartalmazza, azt vizsgáljuk, hogy az ellátási lánc három lényeges vállalati funkciója, a marketing, a termelés és a logisztika milyen mértékben járul hozzá az üzleti eredményességhez. Az eredmények szerint a marketingnek és a termelésnek erősebb hatása van a vállalati teljesítményre, mint a logisztikának. A három funkció együttesen csekély, bár statisztikai értelemben szignifikáns szerepet játszik az üzleti sikerben. _____ Companies are complex organizations where a lot of activities and processes have to work properly in order to reach success. Depending on several factors, sometimes some activities get more emphasis while others work in the background. Since organizational functions have separate literature and practical knowledge, and transit between them is rare, we do have very little knowledge on how the various functions together contribute to company success. Based on a wide-scale empirical study on Hungarian competitiveness, which includes data on 154 companies from the process industry, we examine to what extent three functions of the supply chain, marketing, manufacturing and logistics, can contribute to business success. Results show that marketing and manufacturing have larger effect on company performance than logistics. However, the three functions together play a minor, although significant role in company success.
Resumo:
Le byssus est un amas de fibres que les moules produisent afin de s’ancrer aux surfaces immergées sous l’eau. Ces fibres sont pourvues de propriétés mécaniques impressionnantes combinant rigidité, élasticité et ténacité élevées. De plus, elles possèdent un comportement d’auto-guérison de leurs propriétés mécaniques en fonction du temps lorsque la contrainte initialement appliquée est retirée. Les propriétés mécaniques de ces fibres sont le résultat de l’agencement hiérarchique de protéines de type copolymère blocs riches en collagène et de la présence de métaux formant des liens sacrificiels réversibles avec certains acides aminés comme les DOPA et les histidines. Bien que cette fibre soit très intéressante pour la production de matériaux grâce à son contenu élevé en collagène potentiellement biocompatible, cette ressource naturelle est traitée comme un déchet par les mytiliculteurs. L’objectif de cette thèse était de valoriser cette fibre en extrayant les protéines pour générer une nouvelle classe de matériaux biomimétiques. Un hydrolysat de protéines de byssus (BPH) riche en acides aminés chargés, i.e. ~30 % mol, et permettant de former des films a pu être généré. Lorsque solubilisé à pH 10.5, le BPH forme un hydrogel contenant des structures en triple hélice de collagène et des feuillets β anti-parallèles intra- et inter-moléculaires. Suite à l’évaporation de l’eau, le film de BPH résultant est insoluble en milieu aqueux à cause des structures secondaires très stables agissant comme points de réticulation effectifs. Les propriétés mécaniques des films de BPH sont modulables en fonction du pH. Au point isoélectrique (pI = 4.5), les interactions électrostatiques entre les charges opposées agissent comme points de réticulation et augmentent la rigidité des films et leur contrainte à la rupture sans affecter la déformation à la rupture. À pH plus élevé ou plus bas que le pI, les performances mécaniques des films sont plus faibles à cause de la répulsion entre les groupements fonctionnels de même charge qui interagissent plutôt avec les molécules d’eau et causent le gonflement de la matrice protéique des films. Le BPH contenant un nombre élevé d’acides aminés chargés et réactifs, nous avons pu réticuler les films de manière covalente à l’aide d’EDC ou de glutaraldéhyde. Les propriétés mécaniques des films sont modulables en fonction de la concentration d’EDC utilisée lors de la réticulation ou en employant du glutaraldéhyde comme agent réticulant. Les films sont à la fois plus rigides et plus forts avec un degré de réticulation élevé, mais perdent leur extensibilité à mesure que les segments libres de s’étirer lors d’une traction deviennent entravés par les points de réticulation. La réticulation augmente également la résistance à la dégradation enzymatique par la collagénase, les films les plus fortement réticulés lui étant pratiquement insensibles. La spectroscopie infrarouge montre enfin que la réticulation entraîne une transition de feuillets β anti-parallèles inter-moléculaires vers des structures de type hélices de collagène/PPII hydratées. Des liens sacrificiels ont été formés dans les films de BPH par traitement au pI et/ou avec différents métaux, i.e. Na+, Ca2+, Fe3+, afin de moduler les propriétés mécaniques statiques et d’évaluer le rôle de ces traitements sur le comportement d’auto-guérison lors de tests mécaniques cycliques avec différents temps de repos. Plus la valence des ions métalliques ajoutés augmente, plus les propriétés mécaniques statiques affichent un module, une contrainte à la rupture et une ténacité élevés sans toutefois affecter la déformation à la rupture, confirmant la formation de liens sacrificiels. Les tests mécaniques cycliques montrent que les traitements au pI ou avec Ca2+ créent des liens sacrificiels ioniques réversibles qui mènent à un processus d’auto-guérison des performances mécaniques dépendant du pH. L’ajout de Fe3+ à différentes concentrations module les performances mécaniques sur un plus large intervalle et la nature plus covalente de son interaction avec les acides aminés permet d’atteindre des valeurs nettement plus élevées que les autres traitements étudiés. Le Fe3+ permet aussi la formation de liens sacrificiels réversibles menant à l’auto-guérison des propriétés mécaniques. Les spectroscopies Raman et infrarouge confirment que le fer crée des liaisons avec plusieurs acides aminés, dont les histidines et les DOPA. Les résultats dans leur ensemble démontrent que les films de BPH sont des hydrogels biomimétiques du byssus qui peuvent être traités ou réticulés de différentes façons afin de moduler leurs performances mécaniques. Ils pourraient ainsi servir de matrices pour des applications potentielles dans le domaine pharmaceutique ou en ingénierie tissulaire.
Resumo:
Income decreasing strategies conducted by management could be harmful for various stakeholders. One example is big bath accounting, which could be accomplished in numer- ous ways. This study focus on big baths achieved by recognising impairments of goodwill. Purpose - The purpose of this study is to examine patterns of association between big bath accounting and impairment of goodwill within the telecommunication service industry in Europe. Further, this study aim at contributing to the discussion regarding utilisation of big baths through impairments of goodwill, and takes the perspective of an external stakehold- er. Delimitations - The study is restricted to European telecommunication entities comprised in STOXX Europe 600 Index. Method - This study was conducted using a hybrid of qualitative and quantitative research strategy with a deductive approach. The five indicators used to identify various big bath behaviours were inspired and derived from theory and previous research. Data from 2009 to 2015 was collected from the companies’ annual reports and websites, and analysed by the help of codification of each fulfilled indicator where 2009 merely served as a compara- tive year for 2010. By the use of a scoreboard the collected data was summarised on an ag- gregated yearly basis as the industry, not the specific companies, were analysed. Empirical findings - The results of this study suggests that big baths are executed among tele- communication companies within Europe. These are conducted simultaneously as impair- ments of goodwill are present, facilitated by earning management. A possible explanation is considered to be the room for interpretation inherent in IAS 36, enabling goodwill impair- ments to be recognised on managers’ command. Thereby an impairment could be “saved” for better or worse circumstances, or recognised when there exist an opportunity to max- imise (the manager's) wealth in the future. This study reveal the co-occurrence of goodwill impairments and big bath-indications, however a review of causal relationships are not en- abled by the limitations of the chosen method.
Resumo:
Many beef producers within the extensive cattle industry of northern Australia attempt to maintain a constant herd size from year-to-year (fixed stocking), whereas others adjust stock numbers to varying degrees annually in response to changes in forage supply. The effects of these strategies on pasture condition and cattle productivity cannot easily be assessed by grazing trials. Simulation studies, which include feedbacks of changes to pasture condition on cattle liveweight gain, can extend the results of grazing trials both spatially and temporally. They can compare a large number of strategies, over long periods of time, for a range of climate periods, at locations which differ markedly in climate. This simulation study compared the pasture condition and cattle productivity achieved by fixed stocking at the long-term carrying capacity with that of 55 flexible stocking strategies at 28 locations across Queensland and the Northern Territory. Flexible stocking strategies differed markedly in the degree they increased or decreased cattle stocking rates after good and poor pasture growing seasons, respectively. The 28 locations covered the full range in average annual rainfall and inter-annual rainfall variability experienced across northern Australia. Constrained flexibility, which limited increases in stocking rates after good growing seasons to 10% but decreased them by up to 20% after poor growing seasons, provides sustainable productivity gains for cattle producers in northern Australia. This strategy can improve pasture condition and increase cattle productivity relative to fixed stocking at the long-term carrying capacity, and its capacity to do this was greatest in the semiarid rangeland regions that contain the majority of beef cattle in northern Australia. More flexible stocking strategies, which also increased stocking rates after good growing seasons by only half as much as they decreased them after poor growing seasons, were equally sustainable and more productive than constrained flexibility, but are often impractical at property and industry scales. Strategies with the highest limits (e.g. 70%) for both annual increases and decreases in stocking rates could achieve higher cattle productivity, but this was at the expense of pasture condition and was not sustainable. Constrained flexible stocking, with a 10% limit for increases and a 20% limit for decreases in stocking rates annually, is a risk-averse adaptation to high and unpredictable rainfall variability for the extensive beef industry of northern Australia. © Australian Rangeland Society 2016.
Resumo:
Le byssus est un amas de fibres que les moules produisent afin de s’ancrer aux surfaces immergées sous l’eau. Ces fibres sont pourvues de propriétés mécaniques impressionnantes combinant rigidité, élasticité et ténacité élevées. De plus, elles possèdent un comportement d’auto-guérison de leurs propriétés mécaniques en fonction du temps lorsque la contrainte initialement appliquée est retirée. Les propriétés mécaniques de ces fibres sont le résultat de l’agencement hiérarchique de protéines de type copolymère blocs riches en collagène et de la présence de métaux formant des liens sacrificiels réversibles avec certains acides aminés comme les DOPA et les histidines. Bien que cette fibre soit très intéressante pour la production de matériaux grâce à son contenu élevé en collagène potentiellement biocompatible, cette ressource naturelle est traitée comme un déchet par les mytiliculteurs. L’objectif de cette thèse était de valoriser cette fibre en extrayant les protéines pour générer une nouvelle classe de matériaux biomimétiques. Un hydrolysat de protéines de byssus (BPH) riche en acides aminés chargés, i.e. ~30 % mol, et permettant de former des films a pu être généré. Lorsque solubilisé à pH 10.5, le BPH forme un hydrogel contenant des structures en triple hélice de collagène et des feuillets β anti-parallèles intra- et inter-moléculaires. Suite à l’évaporation de l’eau, le film de BPH résultant est insoluble en milieu aqueux à cause des structures secondaires très stables agissant comme points de réticulation effectifs. Les propriétés mécaniques des films de BPH sont modulables en fonction du pH. Au point isoélectrique (pI = 4.5), les interactions électrostatiques entre les charges opposées agissent comme points de réticulation et augmentent la rigidité des films et leur contrainte à la rupture sans affecter la déformation à la rupture. À pH plus élevé ou plus bas que le pI, les performances mécaniques des films sont plus faibles à cause de la répulsion entre les groupements fonctionnels de même charge qui interagissent plutôt avec les molécules d’eau et causent le gonflement de la matrice protéique des films. Le BPH contenant un nombre élevé d’acides aminés chargés et réactifs, nous avons pu réticuler les films de manière covalente à l’aide d’EDC ou de glutaraldéhyde. Les propriétés mécaniques des films sont modulables en fonction de la concentration d’EDC utilisée lors de la réticulation ou en employant du glutaraldéhyde comme agent réticulant. Les films sont à la fois plus rigides et plus forts avec un degré de réticulation élevé, mais perdent leur extensibilité à mesure que les segments libres de s’étirer lors d’une traction deviennent entravés par les points de réticulation. La réticulation augmente également la résistance à la dégradation enzymatique par la collagénase, les films les plus fortement réticulés lui étant pratiquement insensibles. La spectroscopie infrarouge montre enfin que la réticulation entraîne une transition de feuillets β anti-parallèles inter-moléculaires vers des structures de type hélices de collagène/PPII hydratées. Des liens sacrificiels ont été formés dans les films de BPH par traitement au pI et/ou avec différents métaux, i.e. Na+, Ca2+, Fe3+, afin de moduler les propriétés mécaniques statiques et d’évaluer le rôle de ces traitements sur le comportement d’auto-guérison lors de tests mécaniques cycliques avec différents temps de repos. Plus la valence des ions métalliques ajoutés augmente, plus les propriétés mécaniques statiques affichent un module, une contrainte à la rupture et une ténacité élevés sans toutefois affecter la déformation à la rupture, confirmant la formation de liens sacrificiels. Les tests mécaniques cycliques montrent que les traitements au pI ou avec Ca2+ créent des liens sacrificiels ioniques réversibles qui mènent à un processus d’auto-guérison des performances mécaniques dépendant du pH. L’ajout de Fe3+ à différentes concentrations module les performances mécaniques sur un plus large intervalle et la nature plus covalente de son interaction avec les acides aminés permet d’atteindre des valeurs nettement plus élevées que les autres traitements étudiés. Le Fe3+ permet aussi la formation de liens sacrificiels réversibles menant à l’auto-guérison des propriétés mécaniques. Les spectroscopies Raman et infrarouge confirment que le fer crée des liaisons avec plusieurs acides aminés, dont les histidines et les DOPA. Les résultats dans leur ensemble démontrent que les films de BPH sont des hydrogels biomimétiques du byssus qui peuvent être traités ou réticulés de différentes façons afin de moduler leurs performances mécaniques. Ils pourraient ainsi servir de matrices pour des applications potentielles dans le domaine pharmaceutique ou en ingénierie tissulaire.
Resumo:
Nowadays a huge attention of the academia and research teams is attracted to the potential of the usage of the 60 GHz frequency band in the wireless communications. The use of the 60GHz frequency band offers great possibilities for wide variety of applications that are yet to be implemented. These applications also imply huge implementation challenges. Such example is building a high data rate transceiver which at the same time would have very low power consumption. In this paper we present a prototype of Single Carrier -SC transceiver system, illustrating a brief overview of the baseband design, emphasizing the most important decisions that need to be done. A brief overview of the possible approaches when implementing the equalizer, as the most complex module in the SC transceiver, is also presented. The main focus of this paper is to suggest a parallel architecture for the receiver in a Single Carrier communication system. This would provide higher data rates that the communication system canachieve, for a price of higher power consumption. The suggested architecture of such receiver is illustrated in this paper,giving the results of its implementation in comparison with its corresponding serial implementation.
Resumo:
Four-dimensional variational data assimilation (4D-Var) is used in environmental prediction to estimate the state of a system from measurements. When 4D-Var is applied in the context of high resolution nested models, problems may arise in the representation of spatial scales longer than the domain of the model. In this paper we study how well 4D-Var is able to estimate the whole range of spatial scales present in one-way nested models. Using a model of the one-dimensional advection–diffusion equation we show that small spatial scales that are observed can be captured by a 4D-Var assimilation, but that information in the larger scales may be degraded. We propose a modification to 4D-Var which allows a better representation of these larger scales.
Resumo:
The cost and risk associated with mineral exploration in Australia increases significantly as companies move into deeper regolith-covered terrain. The ability to map the bedrock and the depth of weathering within an area has the potential to decrease this risk and increase the effectiveness of exploration programs. This paper is the second in a trilogy concerning the Grant's Patch area of the Eastern Goldfields. The recent development of the VPmg potential field inversion program in conjunction with the acquisition of high-resolution gravity data over an area with extensive drilling provided an opportunity to evaluate three-dimensional gravity inversion as a bedrock and regolith mapping tool. An apparent density model of the study area was constructed, with the ground represented as adjoining 200 m by 200 m vertical rectangular prisms. During inversion VPmg incrementally adjusted the density of each prism until the free-air gravity response of the model replicated the observed data. For the Grant's Patch study area, this image of the apparent density values proved easier to interpret than the Bouguer gravity image. A regolith layer was introduced into the model and realistic fresh-rock densities assigned to each basement prism according to its interpreted lithology. With the basement and regolith densities fixed, the VPmg inversion algorithm adjusted the depth to fresh basement until the misfit between the calculated and observed gravity response was minimised. The resulting geometry of the bedrock/regolith contact largely replicated the base of weathering indicated by drilling with predicted depth of weathering values from gravity inversion typically within 15% of those logged during RAB and RC drilling.
Resumo:
Managing the physical and compute infrastructure of a large data center is an embodiment of a Cyber-Physical System (CPS). The physical parameters of the data center (such as power, temperature, pressure, humidity) are tightly coupled with computations, even more so in upcoming data centers, where the location of workloads can vary substantially due, for example, to workloads being moved in a cloud infrastructure hosted in the data center. In this paper, we describe a data collection and distribution architecture that enables gathering physical parameters of a large data center at a very high temporal and spatial resolutionof the sensor measurements. We think this is an important characteristic to enable more accurate heat-flow models of the data center andwith them, _and opportunities to optimize energy consumption. Havinga high resolution picture of the data center conditions, also enables minimizing local hotspots, perform more accurate predictive maintenance (pending failures in cooling and other infrastructure equipment can be more promptly detected) and more accurate billing. We detail this architecture and define the structure of the underlying messaging system that is used to collect and distribute the data. Finally, we show the results of a preliminary study of a typical data center radio environment.
Resumo:
In-network storage of data in wireless sensor networks contributes to reduce the communications inside the network and to favor data aggregation. In this paper, we consider the use of n out of m codes and data dispersal in combination to in-network storage. In particular, we provide an abstract model of in-network storage to show how n out of m codes can be used, and we discuss how this can be achieved in five cases of study. We also define a model aimed at evaluating the probability of correct data encoding and decoding, we exploit this model and simulations to show how, in the cases of study, the parameters of the n out of m codes and the network should be configured in order to achieve correct data coding and decoding with high probability.
Resumo:
Nowadays, data centers are large energy consumers and the trend for next years is expected to increase further, considering the growth in the order of cloud services. A large portion of this power consumption is due to the control of physical parameters of the data center (such as temperature and humidity). However, these physical parameters are tightly coupled with computations, and even more so in upcoming data centers, where the location of workloads can vary substantially due, for example, to workloads being moved in the cloud infrastructure hosted in the data center. Therefore, managing the physical and compute infrastructure of a large data center is an embodiment of a Cyber-Physical System (CPS). In this paper, we describe a data collection and distribution architecture that enables gathering physical parameters of a large data center at a very high temporal and spatial resolution of the sensor measurements. We think this is an important characteristic to enable more accurate heat-flow models of the data center and with them, find opportunities to optimize energy consumptions. Having a high-resolution picture of the data center conditions, also enables minimizing local hot-spots, perform more accurate predictive maintenance (failures in all infrastructure equipments can be more promptly detected) and more accurate billing. We detail this architecture and define the structure of the underlying messaging system that is used to collect and distribute the data. Finally, we show the results of a preliminary study of a typical data center radio environment.
Resumo:
Genome-scale metabolic models are valuable tools in the metabolic engineering process, based on the ability of these models to integrate diverse sources of data to produce global predictions of organism behavior. At the most basic level, these models require only a genome sequence to construct, and once built, they may be used to predict essential genes, culture conditions, pathway utilization, and the modifications required to enhance a desired organism behavior. In this chapter, we address two key challenges associated with the reconstruction of metabolic models: (a) leveraging existing knowledge of microbiology, biochemistry, and available omics data to produce the best possible model; and (b) applying available tools and data to automate the reconstruction process. We consider these challenges as we progress through the model reconstruction process, beginning with genome assembly, and culminating in the integration of constraints to capture the impact of transcriptional regulation. We divide the reconstruction process into ten distinct steps: (1) genome assembly from sequenced reads; (2) automated structural and functional annotation; (3) phylogenetic tree-based curation of genome annotations; (4) assembly and standardization of biochemistry database; (5) genome-scale metabolic reconstruction; (6) generation of core metabolic model; (7) generation of biomass composition reaction; (8) completion of draft metabolic model; (9) curation of metabolic model; and (10) integration of regulatory constraints. Each of these ten steps is documented in detail.
Resumo:
The integration of geophysical data into the subsurface characterization problem has been shown in many cases to significantly improve hydrological knowledge by providing information at spatial scales and locations that is unattainable using conventional hydrological measurement techniques. The investigation of exactly how much benefit can be brought by geophysical data in terms of its effect on hydrological predictions, however, has received considerably less attention in the literature. Here, we examine the potential hydrological benefits brought by a recently introduced simulated annealing (SA) conditional stochastic simulation method designed for the assimilation of diverse hydrogeophysical data sets. We consider the specific case of integrating crosshole ground-penetrating radar (GPR) and borehole porosity log data to characterize the porosity distribution in saturated heterogeneous aquifers. In many cases, porosity is linked to hydraulic conductivity and thus to flow and transport behavior. To perform our evaluation, we first generate a number of synthetic porosity fields exhibiting varying degrees of spatial continuity and structural complexity. Next, we simulate the collection of crosshole GPR data between several boreholes in these fields, and the collection of porosity log data at the borehole locations. The inverted GPR data, together with the porosity logs, are then used to reconstruct the porosity field using the SA-based method, along with a number of other more elementary approaches. Assuming that the grid-cell-scale relationship between porosity and hydraulic conductivity is unique and known, the porosity realizations are then used in groundwater flow and contaminant transport simulations to assess the benefits and limitations of the different approaches.
Resumo:
A recurring task in the analysis of mass genome annotation data from high-throughput technologies is the identification of peaks or clusters in a noisy signal profile. Examples of such applications are the definition of promoters on the basis of transcription start site profiles, the mapping of transcription factor binding sites based on ChIP-chip data and the identification of quantitative trait loci (QTL) from whole genome SNP profiles. Input to such an analysis is a set of genome coordinates associated with counts or intensities. The output consists of a discrete number of peaks with respective volumes, extensions and center positions. We have developed for this purpose a flexible one-dimensional clustering tool, called MADAP, which we make available as a web server and as standalone program. A set of parameters enables the user to customize the procedure to a specific problem. The web server, which returns results in textual and graphical form, is useful for small to medium-scale applications, as well as for evaluation and parameter tuning in view of large-scale applications, requiring a local installation. The program written in C++ can be freely downloaded from ftp://ftp.epd.unil.ch/pub/software/unix/madap. The MADAP web server can be accessed at http://www.isrec.isb-sib.ch/madap/.
Resumo:
L'imagerie par résonance magnétique (IRM) peut fournir aux cardiologues des informations diagnostiques importantes sur l'état de la maladie de l'artère coronarienne dans les patients. Le défi majeur pour l'IRM cardiaque est de gérer toutes les sources de mouvement qui peuvent affecter la qualité des images en réduisant l'information diagnostique. Cette thèse a donc comme but de développer des nouvelles techniques d'acquisitions des images IRM, en changeant les techniques de compensation du mouvement, pour en augmenter l'efficacité, la flexibilité, la robustesse et pour obtenir plus d'information sur le tissu et plus d'information temporelle. Les techniques proposées favorisent donc l'avancement de l'imagerie des coronaires dans une direction plus maniable et multi-usage qui peut facilement être transférée dans l'environnement clinique. La première partie de la thèse s'est concentrée sur l'étude du mouvement des artères coronariennes sur des patients en utilisant la techniques d'imagerie standard (rayons x), pour mesurer la précision avec laquelle les artères coronariennes retournent dans la même position battement après battement (repositionnement des coronaires). Nous avons découvert qu'il y a des intervalles dans le cycle cardiaque, tôt dans la systole et à moitié de la diastole, où le repositionnement des coronaires est au minimum. En réponse nous avons développé une nouvelle séquence d'acquisition (T2-post) capable d'acquérir les données aussi tôt dans la systole. Cette séquence a été testée sur des volontaires sains et on a pu constater que la qualité de visualisation des artère coronariennes est égale à celle obtenue avec les techniques standard. De plus, le rapport signal sur bruit fourni par la séquence d'acquisition proposée est supérieur à celui obtenu avec les techniques d'imagerie standard. La deuxième partie de la thèse a exploré un paradigme d'acquisition des images cardiaques complètement nouveau pour l'imagerie du coeur entier. La technique proposée dans ce travail acquiert les données sans arrêt (free-running) au lieu d'être synchronisée avec le mouvement cardiaque. De cette façon, l'efficacité de la séquence d'acquisition est augmentée de manière significative et les images produites représentent le coeur entier dans toutes les phases cardiaques (quatre dimensions, 4D). Par ailleurs, l'auto-navigation de la respiration permet d'effectuer cette acquisition en respiration libre. Cette technologie rend possible de visualiser et évaluer l'anatomie du coeur et de ses vaisseaux ainsi que la fonction cardiaque en quatre dimensions et avec une très haute résolution spatiale et temporelle, sans la nécessité d'injecter un moyen de contraste. Le pas essentiel qui a permis le développement de cette technique est l'utilisation d'une trajectoire d'acquisition radiale 3D basée sur l'angle d'or. Avec cette trajectoire, il est possible d'acquérir continûment les données d'espace k, puis de réordonner les données et choisir les paramètres temporel des images 4D a posteriori. L'acquisition 4D a été aussi couplée avec un algorithme de reconstructions itératif (compressed sensing) qui permet d'augmenter la résolution temporelle tout en augmentant la qualité des images. Grâce aux images 4D, il est possible maintenant de visualiser les artères coronariennes entières dans chaque phase du cycle cardiaque et, avec les mêmes données, de visualiser et mesurer la fonction cardiaque. La qualité des artères coronariennes dans les images 4D est la même que dans les images obtenues avec une acquisition 3D standard, acquise en diastole Par ailleurs, les valeurs de fonction cardiaque mesurées au moyen des images 4D concorde avec les valeurs obtenues avec les images 2D standard. Finalement, dans la dernière partie de la thèse une technique d'acquisition a temps d'écho ultra-court (UTE) a été développée pour la visualisation in vivo des calcifications des artères coronariennes. Des études récentes ont démontré que les acquisitions UTE permettent de visualiser les calcifications dans des plaques athérosclérotiques ex vivo. Cepandent le mouvement du coeur a entravé jusqu'à maintenant l'utilisation des techniques UTE in vivo. Pour résoudre ce problème nous avons développé une séquence d'acquisition UTE avec trajectoire radiale 3D et l'avons testée sur des volontaires. La technique proposée utilise une auto-navigation 3D pour corriger le mouvement respiratoire et est synchronisée avec l'ECG. Trois échos sont acquis pour extraire le signal de la calcification avec des composants au T2 très court tout en permettant de séparer le signal de la graisse depuis le signal de l'eau. Les résultats sont encore préliminaires mais on peut affirmer que la technique développé peut potentiellement montrer les calcifications des artères coronariennes in vivo. En conclusion, ce travail de thèse présente trois nouvelles techniques pour l'IRM du coeur entier capables d'améliorer la visualisation et la caractérisation de la maladie athérosclérotique des coronaires. Ces techniques fournissent des informations anatomiques et fonctionnelles en quatre dimensions et des informations sur la composition du tissu auparavant indisponibles. CORONARY artery magnetic resonance imaging (MRI) has the potential to provide the cardiologist with relevant diagnostic information relative to coronary artery disease of patients. The major challenge of cardiac MRI, though, is dealing with all sources of motions that can corrupt the images affecting the diagnostic information provided. The current thesis, thus, focused on the development of new MRI techniques that change the standard approach to cardiac motion compensation in order to increase the efficiency of cardioavscular MRI, to provide more flexibility and robustness, new temporal information and new tissue information. The proposed approaches help in advancing coronary magnetic resonance angiography (MRA) in the direction of an easy-to-use and multipurpose tool that can be translated to the clinical environment. The first part of the thesis focused on the study of coronary artery motion through gold standard imaging techniques (x-ray angiography) in patients, in order to measure the precision with which the coronary arteries assume the same position beat after beat (coronary artery repositioning). We learned that intervals with minimal coronary artery repositioning occur in peak systole and in mid diastole and we responded with a new pulse sequence (T2~post) that is able to provide peak-systolic imaging. Such a sequence was tested in healthy volunteers and, from the image quality comparison, we learned that the proposed approach provides coronary artery visualization and contrast-to-noise ratio (CNR) comparable with the standard acquisition approach, but with increased signal-to-noise ratio (SNR). The second part of the thesis explored a completely new paradigm for whole- heart cardiovascular MRI. The proposed techniques acquires the data continuously (free-running), instead of being triggered, thus increasing the efficiency of the acquisition and providing four dimensional images of the whole heart, while respiratory self navigation allows for the scan to be performed in free breathing. This enabling technology allows for anatomical and functional evaluation in four dimensions, with high spatial and temporal resolution and without the need for contrast agent injection. The enabling step is the use of a golden-angle based 3D radial trajectory, which allows for a continuous sampling of the k-space and a retrospective selection of the timing parameters of the reconstructed dataset. The free-running 4D acquisition was then combined with a compressed sensing reconstruction algorithm that further increases the temporal resolution of the 4D dataset, while at the same time increasing the overall image quality by removing undersampling artifacts. The obtained 4D images provide visualization of the whole coronary artery tree in each phases of the cardiac cycle and, at the same time, allow for the assessment of the cardiac function with a single free- breathing scan. The quality of the coronary arteries provided by the frames of the free-running 4D acquisition is in line with the one obtained with the standard ECG-triggered one, and the cardiac function evaluation matched the one measured with gold-standard stack of 2D cine approaches. Finally, the last part of the thesis focused on the development of ultrashort echo time (UTE) acquisition scheme for in vivo detection of calcification in the coronary arteries. Recent studies showed that UTE imaging allows for the coronary artery plaque calcification ex vivo, since it is able to detect the short T2 components of the calcification. The heart motion, though, prevented this technique from being applied in vivo. An ECG-triggered self-navigated 3D radial triple- echo UTE acquisition has then been developed and tested in healthy volunteers. The proposed sequence combines a 3D self-navigation approach with a 3D radial UTE acquisition enabling data collection during free breathing. Three echoes are simultaneously acquired to extract the short T2 components of the calcification while a water and fat separation technique allows for proper visualization of the coronary arteries. Even though the results are still preliminary, the proposed sequence showed great potential for the in vivo visualization of coronary artery calcification. In conclusion, the thesis presents three novel MRI approaches aimed at improved characterization and assessment of atherosclerotic coronary artery disease. These approaches provide new anatomical and functional information in four dimensions, and support tissue characterization for coronary artery plaques.