854 resultados para New approaches


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

We developed a nanoparticles (NPs) library from poly(ethylene glycol)–poly lactic acid comb-like polymers with variable amount of PEG. Curcumin was encapsulated in the NPs with a view to develop a delivery platform to treat diseases involving oxidative stress affecting the CNS. We observed a sharp decrease in size between 15 and 20% w/w of PEG which corresponds to a transition from a large solid particle structure to a “micelle-like” or “polymer nano-aggregate” structure. Drug loading, loading efficacy and release kinetics were determined. The diffusion coefficients of curcumin in NPs were determined using a mathematical modeling. The higher diffusion was observed for solid particles compared to “polymer nano-aggregate” particles. NPs did not present any significant toxicity when tested in vitro on a neuronal cell line. Moreover, the ability of NPs carrying curcumin to prevent oxidative stress was evidenced and linked to polymer architecture and NPs organization. Our study showed the intimate relationship between the polymer architecture and the biophysical properties of the resulting NPs and sheds light on new approaches to design efficient NP-based drug carriers.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

We consider two new approaches to nonparametric estimation of the leverage effect. The first approach uses stock prices alone. The second approach uses the data on stock prices as well as a certain volatility instrument, such as the CBOE volatility index (VIX) or the Black-Scholes implied volatility. The theoretical justification for the instrument-based estimator relies on a certain invariance property, which can be exploited when high frequency data is available. The price-only estimator is more robust since it is valid under weaker assumptions. However, in the presence of a valid volatility instrument, the price-only estimator is inefficient as the instrument-based estimator has a faster rate of convergence. We consider two empirical applications, in which we study the relationship between the leverage effect and the debt-to-equity ratio, credit risk, and illiquidity.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The present study helped to understand the trend in rainfall patterns at smaller spatial scales and the large regional differences in the variability of rainfall. The effect of land use and orography on the diurnal variability is also understood. But a better understanding on the long term variation in rainfall is possible by using a longer dataset,which may provide insight into the rainfall variation over country during the past century. The basic mechanism behind the interannual rainfall variability would be possible with numerical studies using coupled Ocean-Atmosphere models. The regional difference in the active-break conditions points to the significance of regional studies than considering India as a single unit. The underlying dynamics of diurnal variability need to be studied by making use of a high resolution model as the present study could not simulate the local onshore circulation. Also the land use modification in this study, selected a region, which is surrounded by crop land. This implies the high possibility for the conversion of the remaining region to agricultural land. Therefore the study is useful than considering idealized conditions, but the adverse effect of irrigated crop is more than non-irrigated crop. Therefore, such studies would help to understand the climate changes occurred in the recent period. The large accumulation of rainfall between 300-600 m height of western Ghats has been found but the reason behind this need to be studied, which is possible by utilizing datasets that would better represent the orography and landuse over the region in high resolution model. Similarly a detailed analysis is needed to clearly identify the causative relations of the predictors identified with the predictant and the physical reasons behind them. New approaches that include nonlinear relationships and dynamical variables from model simulations can be included in the existing statistical models to improve the skill of the models. Also the statistical models for the forecasts of monsoon have to be continually updated.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In the present work different new approaches for the synthesis of Vitamin A are investigated. In these synthetic schemes, all the twenty carbon atoms of the target molecule are derived either fully from components isolated from common essential oils or partially from commercially available materials. By retrosynthetic analysis, Vitamin A molecule can be disconnected into a cyclic and a linear unit. Different methods for the synthesis of the linear and the cyclic components are described. The monoterpenes, geraniol and citral, major constituents of palmarosa and lemongrass oils, have the required basic carbon framework for consideration as starting materials for the synthesis of Vitamin A. The potential of these easily available naturally occurring compounds as promising starting materials for Vitamin A synthesis is demonstrated. Organoselenium and organosulfur mediated functional group transformations for the synthesis of the functionalised conjugated C10 linear components (ie., the dimethyloctatriene derivatives) are reported. The classical approaches as well as the attempted preparation of cyclic C10 and C13 units employed in the present study as intermediates for Vitamin A synthesis are described. The utility of commercially available materials namely 2-acetylbutyrolactone and levulinic acid in -the preparation of C5 intermediates for Vitamin A synthesis is demonstrated.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Earlier studies on measurement of customer satisfaction are based on either transaction specific or overall approaches. The transaction specific approach evaluates customer satisfaction with single components in the whole purchase process but the overall satisfaction was based on all the encounters or experiences to the customer throughout the purchase process. Consumers will comment on particular events of their purchase process when asked about transaction-specific satisfaction and they will comment their overall impression and general experiences in overall satisfaction (Bitner & Hubbert 1994) Through a critical review on the literature, it has been identified a new approaches to customer satisfaction, say, cumulative approaches that can be more useful than overall and transaction specific approaches for strategic decision making (Fornell et al 1996). The cumulative approach to customer satisfaction doesn’t study earlier due to the difficulty in operationalization of the concept. But the influencers of customer satisfaction are context specific and the prevailing models doesn’t give the sources of variations in the satisfaction, the importance of cumulative approaches to customer satisfaction has emerges that lights to a new research. The current study has focused to explore the influencers of overall customer satisfaction to form individual elements that can be used to identify the cumulative customer satisfaction.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Distributed systems are one of the most vital components of the economy. The most prominent example is probably the internet, a constituent element of our knowledge society. During the recent years, the number of novel network types has steadily increased. Amongst others, sensor networks, distributed systems composed of tiny computational devices with scarce resources, have emerged. The further development and heterogeneous connection of such systems imposes new requirements on the software development process. Mobile and wireless networks, for instance, have to organize themselves autonomously and must be able to react to changes in the environment and to failing nodes alike. Researching new approaches for the design of distributed algorithms may lead to methods with which these requirements can be met efficiently. In this thesis, one such method is developed, tested, and discussed in respect of its practical utility. Our new design approach for distributed algorithms is based on Genetic Programming, a member of the family of evolutionary algorithms. Evolutionary algorithms are metaheuristic optimization methods which copy principles from natural evolution. They use a population of solution candidates which they try to refine step by step in order to attain optimal values for predefined objective functions. The synthesis of an algorithm with our approach starts with an analysis step in which the wanted global behavior of the distributed system is specified. From this specification, objective functions are derived which steer a Genetic Programming process where the solution candidates are distributed programs. The objective functions rate how close these programs approximate the goal behavior in multiple randomized network simulations. The evolutionary process step by step selects the most promising solution candidates and modifies and combines them with mutation and crossover operators. This way, a description of the global behavior of a distributed system is translated automatically to programs which, if executed locally on the nodes of the system, exhibit this behavior. In our work, we test six different ways for representing distributed programs, comprising adaptations and extensions of well-known Genetic Programming methods (SGP, eSGP, and LGP), one bio-inspired approach (Fraglets), and two new program representations called Rule-based Genetic Programming (RBGP, eRBGP) designed by us. We breed programs in these representations for three well-known example problems in distributed systems: election algorithms, the distributed mutual exclusion at a critical section, and the distributed computation of the greatest common divisor of a set of numbers. Synthesizing distributed programs the evolutionary way does not necessarily lead to the envisaged results. In a detailed analysis, we discuss the problematic features which make this form of Genetic Programming particularly hard. The two Rule-based Genetic Programming approaches have been developed especially in order to mitigate these difficulties. In our experiments, at least one of them (eRBGP) turned out to be a very efficient approach and in most cases, was superior to the other representations.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Web services from different partners can be combined to applications that realize a more complex business goal. Such applications built as Web service compositions define how interactions between Web services take place in order to implement the business logic. Web service compositions not only have to provide the desired functionality but also have to comply with certain Quality of Service (QoS) levels. Maximizing the users' satisfaction, also reflected as Quality of Experience (QoE), is a primary goal to be achieved in a Service-Oriented Architecture (SOA). Unfortunately, in a dynamic environment like SOA unforeseen situations might appear like services not being available or not responding in the desired time frame. In such situations, appropriate actions need to be triggered in order to avoid the violation of QoS and QoE constraints. In this thesis, proper solutions are developed to manage Web services and Web service compositions with regard to QoS and QoE requirements. The Business Process Rules Language (BPRules) was developed to manage Web service compositions when undesired QoS or QoE values are detected. BPRules provides a rich set of management actions that may be triggered for controlling the service composition and for improving its quality behavior. Regarding the quality properties, BPRules allows to distinguish between the QoS values as they are promised by the service providers, QoE values that were assigned by end-users, the monitored QoS as measured by our BPR framework, and the predicted QoS and QoE values. BPRules facilitates the specification of certain user groups characterized by different context properties and allows triggering a personalized, context-aware service selection tailored for the specified user groups. In a service market where a multitude of services with the same functionality and different quality values are available, the right services need to be selected for realizing the service composition. We developed new and efficient heuristic algorithms that are applied to choose high quality services for the composition. BPRules offers the possibility to integrate multiple service selection algorithms. The selection algorithms are applicable also for non-linear objective functions and constraints. The BPR framework includes new approaches for context-aware service selection and quality property predictions. We consider the location information of users and services as context dimension for the prediction of response time and throughput. The BPR framework combines all new features and contributions to a comprehensive management solution. Furthermore, it facilitates flexible monitoring of QoS properties without having to modify the description of the service composition. We show how the different modules of the BPR framework work together in order to execute the management rules. We evaluate how our selection algorithms outperform a genetic algorithm from related research. The evaluation reveals how context data can be used for a personalized prediction of response time and throughput.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Introducción. Trabajo de investigación realizado dentro del proyecto “EVALUACIÓN DE LA EXPOSICIÓN A POLVO DE CARBÓN EN MINERÍA SUBTERRÁNEA EN TRES DEPARTAMENTOS DE COLOMBIA” liderado por el grupo Salud Ocupacional y del Ambiente, con la participación de la Universidad del Rosario, la Universidad de los Andes, el Ministerio de Trabajo, la Administradora de Riesgos Laborales Positiva. Inmerso en este proyecto se determinará en el departamento de Boyacá la prevalencia de sintomatología músculo esquelética Objetivo. Determinar la sintomatología músculo esquelética en cuello, hombros y espalda lumbar, en trabajadores de minas de carbón subterráneas del departamento de Boyacá, mediante la aplicación del Cuestionario Nórdico Estandarizado específico y su relación con variables sociodemográficas y ocupacionales. Metodología. Estudio de corte transversal que se realizó en una población de minería subterránea del departamento mediante la aplicación del Cuestionario Nórdico Estandarizado específico. Resultados. La sintomatología en cuello, hombros y espalda reportada fue de 44,1%, 37,1% y 68,2% respectivamente por los trabajadores. La antigüedad laboral en promedio fue de 17,06 (DS 7,93), la media de edad fue 40,46 (DS 11,12 años). De los 170 trabajadores encuestados el 74,7% (127) se desempeñan como picadores, seguidos por cocheros 10,6% (18), malacatero 5,3% (9), el restante se desempeña en otras labores de minería. Conclusiones. Este estudio encontró un alta prevalencia de sintomatología músculo esquelética en los trabajadores de minería de carbón subterránea, lo que sugiere la necesidad de generar estudios ergonómicos y estrategias de prevención para evitar un aumento en la cifras de enfermedades profesionales como desordenes músculo esqueléticos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El propósito de este texto es discutir el concepto de resiliencia y buscar su interés heurístico para los análisis de vulnerabilidad urbana. El término resiliencia es omnipresente en la retórica de las declaraciones internacionales, de las políticas públicas y en las reflexiones académicas en el campo de los riesgos y desastres en ciudades. Se discute esta noción con el fin de entender sus raíces y desvelar sus presupuestos ideológicos. Al mismo tiempo, el término resiliencia presenta el interés de fomentar debates y cuestiones teóricas en el campo científico y en el sociopolítico de la formulación de nuevas políticas públicas. Más allá de los enfoques focalizados sobre el fortalecimiento delas capacidades locales, los aportes heurísticos del concepto de resiliencia para los análisis de riesgos en el medio urbano provienen de sus fundamentos en la teoría de los sistemas complejos. Así, se resaltan nuevos enfoques y soportes conceptuales que permiten entender mejor la vulnerabilidadde las grandes aglomeraciones urbanas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La presente investigación tiene como objetivo analizar en qué medida la estrategia de liderazgo regional de la India ha sido impulsada a través de los programas y proyectos de cooperación sur-sur ofrecidos por este país en el periodo de 2003-2012. De igual forma se pretende indagar sobre el papel histórico que ha jugado la India en el establecimiento y posterior evolución de esta nueva forma de cooperación que ha sido vista por la mayoría de los académicos como un complemento de la cooperación norte-sur, y que responde a una serie de intereses particulares. En este caso en particular, la cooperación sur-sur ha sido utilizada por India como una herramienta para incrementar sus capacidades de poder que le permitan consolidarse como líder regional.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Existen varias causas de la insuficiencia venosa profunda, la insuficiencia venosa superficial es una de ellas; por tal motivo, una intervención activa de la insuficiencia superficial ya sea cirugía convencional, esclerosis o radiofrecuencia mejora el reflujo del sistema venoso profundo. En nuestro medio no se acostumbra a intervenir los pacientes con insuficiencia venosa mixta bajo la creencia de exacerbar la enfermedad o generar complicaciones. Se pretende documentar los cambios clínicos y hemodinámicos en pacientes con insuficiencia venosa mixta según tipo de manejo, médico vs quirúrgico

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La Universidad tiene el reto de servir a la sociedad y por ello no basta que se dedique a una labor simplemente profesionalizante. En Cuba constituye un reto para la pedagogía contemporánea la búsqueda y puesta en práctica de nuevos enfoques para incentivar la Motivación Profesional. La investigación que se presenta parte de un estudio realizado sobre las necesidades educativas de los estudiantes, que cursan la carrera de Agronomía en la Facultad Agropecuaria de Montaña del Escambray con el objetivo de proporcionarles una orientación profesional que se corresponda con las demandas que deben enfrentar. Se declara la metodología cualitativa como fundamento en la realización de este trabajo y se describe el proceso de investigación seguido. Los resultados del diagnóstico realizado llevan a la presentación de una Propuesta de Estrategia Educativa para la Motivación Profesional de los estudiantes que ingresan y se valora la misma mediante una experiencia piloto.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Eye tracking has become a preponderant technique in the evaluation of user interaction and behaviour with study objects in defined contexts. Common eye tracking related data representation techniques offer valuable input regarding user interaction and eye gaze behaviour, namely through fixations and saccades measurement. However, these and other techniques may be insufficient for the representation of acquired data in specific studies, namely because of the complexity of the study object being analysed. This paper intends to contribute with a summary of data representation and information visualization techniques used in data analysis within different contexts (advertising, websites, television news and video games). Additionally, several methodological approaches are presented in this paper, which resulted from several studies developed and under development at CETAC.MEDIA - Communication Sciences and Technologies Research Centre. In the studies described, traditional data representation techniques were insufficient. As a result, new approaches were necessary and therefore, new forms of representing data, based on common techniques were developed with the objective of improving communication and information strategies. In each of these studies, a brief summary of the contribution to their respective area will be presented, as well as the data representation techniques used and some of the acquired results.