970 resultados para frequency analysis problem
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Avec l’avancement en âge, les personnes âgées qui vivent à domicile ont besoin du soutien des membres de leur entourage, notamment d’un aidant familial dont le rôle n’est toutefois pas sans conséquence sur sa santé. Les écrits empiriques ont montré que certains aidants sont résilients, c’est-à-dire qu’ils s’adaptent à leur situation et continuent leur développement. Toutefois, aucune étude n’a été effectuée au Liban auprès des aidantes familiales pour expliquer la résilience dans ce contexte et, plus spécifiquement, pour déterminer les facteurs qui pourraient l’influencer. Cette étude à devis corrélationnel de prédiction avait pour but de vérifier certaines des relations postulées par un modèle empirique découlant des écrits, soit la contribution de facteurs personnels (stratégies de coping et auto-efficacité) et de facteurs contextuels (relations familiales, perception du soutien de l’entourage, et sens accordé au « prendre soin »),à la résilience des aidantes familiales libanaises qui prennent soin d’un proche âgé à domicile. L’étude a été effectuée au Liban auprès d’un échantillon de convenance composé de 140 aidantes familiales principales cohabitant à domicile avec un parent âgé de 65 ans et plus ayant une perte d’autonomie fonctionnelle ou cognitive. La collecte des données a été réalisée en arabe en utilisant un guide d’entrevue standardisé regroupant des instruments nord-américains traduits selon la méthode de traduction inversée parallèle, de même qu’une question ouverte portant sur la perception des aidantes de la résilience, soit des facteurs qui les aident à continuer à prendre soin de leur proche âgé tout en continuant à se développer. Une analyse de régression hiérarchique a permis de vérifier la contribution unique des facteurs personnels et contextuels à expliquer la résilience des aidantes familiales, en contrôlant pour l’âge et le niveau de scolarité des aidantes et pour le niveau de perte d’autonomie et la fréquence des comportements dysfonctionnels de leurs parents âgés. Une analyse de contenu a permis de décrire la perception des aidantes eu égard à la résilience. Les résultats ont montré que le modèle empirique, incluant les variables de contrôle explique 54% de la variance de la résilience et que quatre des facteurs considérés, soit les stratégies de coping centrées sur le problème, les stratégies de coping centrées sur les émotions, le sentiment d’auto-efficacité et le sens du « prendre soin » ont une contribution statistiquement significative à la résilience des aidantes. Parmi ces quatre facteurs, le sens du « prendre soin » et le sentiment d’auto-efficacité expliquent davantage de variance, soit 11% et 5% respectivement. L’analyse qualitative du discours des aidantes a montré qu’elles prennent soin de leur proche âgé surtout par souci de réciprocité, mais également parce qu’il s’agit d’un membre de la famille et par respect pour Dieu. Ce sont par ailleurs leurs croyances et la satisfaction liée au prendre soin qui les aident à continuer et à se développer. Cette étude offre une meilleure compréhension du concept de la résilience des aidantes familiales au Liban et de certains facteurs qui en sont des prédicteurs significatifs. Elle offre des pistes pour l’intervention infirmière dans le but de promouvoir la santé de la personne/famille en tant que partenaire de soins. Des recommandations pour la pratique, la formation et la recherche sont proposées.
Inference for nonparametric high-frequency estimators with an application to time variation in betas
Resumo:
We consider the problem of conducting inference on nonparametric high-frequency estimators without knowing their asymptotic variances. We prove that a multivariate subsampling method achieves this goal under general conditions that were not previously available in the literature. We suggest a procedure for a data-driven choice of the bandwidth parameters. Our simulation study indicates that the subsampling method is much more robust than the plug-in method based on the asymptotic expression for the variance. Importantly, the subsampling method reliably estimates the variability of the Two Scale estimator even when its parameters are chosen to minimize the finite sample Mean Squared Error; in contrast, the plugin estimator substantially underestimates the sampling uncertainty. By construction, the subsampling method delivers estimates of the variance-covariance matrices that are always positive semi-definite. We use the subsampling method to study the dynamics of financial betas of six stocks on the NYSE. We document significant variation in betas within year 2006, and find that tick data captures more variation in betas than the data sampled at moderate frequencies such as every five or twenty minutes. To capture this variation we estimate a simple dynamic model for betas. The variance estimation is also important for the correction of the errors-in-variables bias in such models. We find that the bias corrections are substantial, and that betas are more persistent than the naive estimators would lead one to believe.
Resumo:
In the present study made an attempt to analyse the structure, performance and growth of women industrial cooperatives in kannur district, Kerala. The study encompasses all women industrial cooperatives registered at the district industries center, kannur and that currently exist. The women industrial cooperatives are classified into two ie; group with network and another group without network. In Kannur there are 54 units working as women industrial cooperatives. One of the main problems the women cooperatives face is the lack of working capital followed marketing problem. The competition between cooperatives and private traders is very high. The variables examined to analyse the performance of women industrial cooperatives in Kannur showed that there exists inter unit differences in almost all the variables. The financial structure structure shows that the short term liquidity of women cooperatives in Kannur favour more the units which have political networks; but the long term financial coverage is seen to be highly geared in this group, not because of a decline is net worth but due to highly proportionate increase in financial liabilities in the form of borrowings. The encouragement given by the government through financial stake and other incentives has been the major factor in the formation and growth of women cooperatives. As a result both productivity and efficiency improves in the cooperatives. In short the present study helped to capture the impact, role and dynamics of networking in general and socio political network in particular in relation to intra and inter unit differences on the structure, growth and performance of women industrial cooperatives societies in Kannur district
Resumo:
This thesis is devoted to the study of some stochastic models in inventories. An inventory system is a facility at which items of materials are stocked. In order to promote smooth and efficient running of business, and to provide adequate service to the customers, an inventory materials is essential for any enterprise. When uncertainty is present, inventories are used as a protection against risk of stock out. It is advantageous to procure the item before it is needed at a lower marginal cost. Again, by bulk purchasing, the advantage of price discounts can be availed. All these contribute to the formation of inventory. Maintaining inventories is a major expenditure for any organization. For each inventory, the fundamental question is how much new stock should be ordered and when should the orders are replaced. In the present study, considered several models for single and two commodity stochastic inventory problems. The thesis discusses two models. In the first model, examined the case in which the time elapsed between two consecutive demand points are independent and identically distributed with common distribution function F(.) with mean (assumed finite) and in which demand magnitude depends only on the time elapsed since the previous demand epoch. The time between disasters has an exponential distribution with parameter . In Model II, the inter arrival time of disasters have general distribution (F.) with mean ( ) and the quantity destructed depends on the time elapsed between disasters. Demands form compound poison processes with inter arrival times of demands having mean 1/. It deals with linearly correlated bulk demand two
Commodity inventory problem, where each arrival demands a random number of items of each commodity C1 and C2, the maximum quantity demanded being a (< S1) and b(
Resumo:
The increasing interest in the interaction of light with electricity and electronically active materials made the materials and techniques for producing semitransparent electrically conducting films particularly attractive. Transparent conductors have found major applications in a number of electronic and optoelectronic devices including resistors, transparent heating elements, antistatic and electromagnetic shield coatings, transparent electrode for solar cells, antireflection coatings, heat reflecting mirrors in glass windows and many other. Tin doped indium oxide (indium tin oxide or ITO) is one of the most commonly used transparent conducting oxides. At present and likely well into the future this material offers best available performance in terms of conductivity and transmittivity combined with excellent environmental stability, reproducibility and good surface morphology. Although partial transparency, with a reduction in conductivity, can be obtained for very thin metallic films, high transparency and simultaneously high conductivity cannot be attained in intrinsic stoichiometric materials. The only way this can be achieved is by creating electron degeneracy in a wide bandgap (Eg > 3eV or more for visible radiation) material by controllably introducing non-stoichiometry and/or appropriate dopants. These conditions can be conveniently met for ITO as well as a number of other materials like Zinc oxide, Cadmium oxide etc. ITO shows interesting and technologically important combination of properties viz high luminous transmittance, high IR reflectance, good electrical conductivity, excellent substrate adherence and chemical inertness. ITO is a key part of solar cells, window coatings, energy efficient buildings, and flat panel displays. In solar cells, ITO can be the transparent, conducting top layer that lets light into the cell to shine the junction and lets electricity flow out. Improving the ITO layer can help improve the solar cell efficiency. A transparent ii conducting oxide is a material with high transparency in a derived part of the spectrum and high electrical conductivity. Beyond these key properties of transparent conducting oxides (TCOs), ITO has a number of other key characteristics. The structure of ITO can be amorphous, crystalline, or mixed, depending on the deposition temperature and atmosphere. The electro-optical properties are a function of the crystallinity of the material. In general, ITO deposited at room temperature is amorphous, and ITO deposited at higher temperatures is crystalline. Depositing at high temperatures is more expensive than at room temperature, and this method may not be compatible with the underlying devices. The main objective of this thesis work is to optimise the growth conditions of Indium tin oxide thin films at low processing temperatures. The films are prepared by radio frequency magnetron sputtering under various deposition conditions. The films are also deposited on to flexible substrates by employing bias sputtering technique. The films thus grown were characterised using different tools. A powder x-ray diffractometer was used to analyse the crystalline nature of the films. The energy dispersive x-ray analysis (EDX) and scanning electron microscopy (SEM) were used for evaluating the composition and morphology of the films. Optical properties were investigated using the UVVIS- NIR spectrophotometer by recording the transmission/absorption spectra. The electrical properties were studied using vander Pauw four probe technique. The plasma generated during the sputtering of the ITO target was analysed using Langmuir probe and optical emission spectral studies.
Resumo:
A new dual port microstrip antenna geometry for dual frequency operation is presented. The structure consists of the intersection of two circles of the same radius with their centres displaced by a small fraction of the wavelength . This antenna provides wide impedance bandwidth and excellent isolation between its ports. The gain of the antenna is comparable to that of a standard circular microstrip antenna operating at the same resonant frequency. A theoretical analysis for calculating the resonant frequencies of the two ports is also presented
Resumo:
A new compact micro strip antenna element is analyzed. The analysis can accurately predict the resonant frequency, input impedance, and radiation patterns. The predicted results are compared with experimental results and excellent agreement is observed . These antenna elements are more suitable in applications where limited antenna real estate is available
Resumo:
A new approach, the multipole theory (MT) method, is presented for the computation of cutoff wavenumbers of waveguides partially filled with dielectric. The MT formulation of the eigenvalue problem of an inhomogeneous waveguide is derived. Representative computational examples, including dielectric-rod-loaded rectangular and double-ridged waveguides, are given to validate the theory, and to demonstrate the degree of its efficiency
Resumo:
A dual-port dual-polarized compact microstrip antenna for avoiding cross coupling between the two frequency bands is proposed and analyzed. This antenna offers channel isolation better than 25 dB, and is more compact compared to a conventional rectangular patch. Analytical equations for calculating the resonant frequencies at both ports are also presented. The theoretical calculations are verified using experimental results
Resumo:
A theoretical analysis of a symmetric T-shaped rnicrostripfed rectangular microstrip antenna using the finite-difference titnedoniain (FDTD) method is presented in this paper. The resonant frequency, return loss, impedance bandwidth, and radiation patterns are predicted and are in good agreement with the measured results
Resumo:
A new compact microstrip antenna element is analyzed. The analysis can accurately predict the resonant frequency, input impedance, and radiation patterns. The predicted results are compared with experimental results and excellent agreement is observed . These antenna elements are more suitable in applications where limited antenna real estate is available
Resumo:
Poor cold flow properties of vegetable oils are a major problem preventing the usage of many abundantly available vegetable oils as base stocks for industrial lubricants. The major objective of this research is to improve the cold flow properties of vegetable oils by various techniques like additive addition and different chemical modification processes. Conventional procedure for determining pour point is ASTM D97 method. ASTM D97 method is time consuming and reproducibility of pour point temperatures is poor between laboratories. Differential Scanning Calorimetry (DSC) is a fast, accurate and reproducible method to analyze the thermal activities during cooling/heating of oil. In this work coconut oil has been chosen as representative vegetable oil for the analysis and improvement cold flow properties since it is abundantly available in the tropics and has a very high pour point of 24 °C. DSC is used for the analysis of unmodified and modified vegetable oil. The modified oils (with acceptable pour points) were then subjected to different tests for the valuation of important lubricant properties such as viscometric, tribological (friction and wear properties), oxidative and corrosion properties.A commercial polymethacrylate based PPD was added in different percentages and the pour points were determined in each case. Styrenated phenol(SP) was added in different concentration to coconut oil and each solution was subjected to ASTM D97 test and analysis by DSC. Refined coconut oil and other oils like castor oil, sunflower oil and keranja oil were mixed in different proportions and interesterification procedure was carried out. Interesterification of coconut oil with other vegetable oils was not found to be effective in lowering the pour point of coconut oil as the reduction attained was only to the extent of 2 to 3 °C.Chemical modification by acid catalysed condensation reaction with coconut oil castor oil mixture resulted in significant reduction of pour point (from 24 ºC to -3 ºC). Instead of using triacylglycerols, when their fatty acid derivatives (lauric acid- the major fatty acid content of coconut oil and oleic acid- the major fatty acid constituents of monoand poly- unsaturated vegetable oils like olive oil, sunflower oil etc.) were used for the synthesis , the pour point could be brought down to -42 ºC. FTIR and NMR spectroscopy confirmed the ester structure of the product which is fundamental to the biodegradability of vegetable oils. The tribological performance of the synthesised product with a suitable AW/EP additive was comparable to the commercial SAE20W30 oil. The viscometric properties (viscosity and viscosity index) were also (with out additives) comparable to commercial lubricants. The TGA experiment confirmed the better oxidative performance of the product compared to vegetable oils. The sample passed corrosion test as per ASTM D130 method.