928 resultados para Unconstrained and convex optimization


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The ferns Anemia tomentosa (Sav.) Sw. var. anthriscifolia (Schrad.) Mickel and Anemia villosa Humb. & Bonpl. ex Willd. are widely associated with vegetation islands on rocky outcrops in Rio de Janeiro. Both species are desiccation tolerant. The leaf anatomy of these species was examined aiming to identify morphological characteristics that would allow the establishment of these species in water-scarce environments. The plants were harvested on "Pedra de Itacoatiara" and prepared according to the usual procedures. The petiole has a uniseriate epidermis with lignified cell walls, conical stegmata, and uniseriate multicelular and glandular trichomes. In A. villosa, the stomata protrude in a respiratory line. Under the epidermis the cells have thick, lignified walls. The parenchyma has phenolic compounds and starch grains. The petiole vascular bundles are surrounded by endodermis with Casparian strips and the xylem is V-shaped (A. villosa) or arc-shaped (A. tomentosa var. anthriscifolia). The leaf blades have a uniseriate epidermis with sinuous anticlinal and convex periclinal walls, conical stegmata and chloroplasts on both surfaces. The leaf margins of A. villosa have lignified cells. The guard cells of the stomata on the abaxial surface are on the same level or are raised above ordinary epidermal cells. Multicelular uniseriate trichomes and glandular hairs were observed. The dorsiventral mesophyll has loosely packed chlorenchyma with arm-shaped and H-shaped cells. The vascular bundles are surrounded by endodermis with Casparian strips and with parenchymatic extensions towards the epidermis. Anatomical results were analyzed considering the interaction of these plants with abiotic factors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tämän diplomityön tarkoituksena on tunnistaa UPM Kymin telahiomon tuotannon läpimenoaikaan sekä laatuun vaikuttavia tekijöitä ja löytää keinot niiden optimoimiseksi, jotta hiontatuotannon kustannustehokkuus parantuisi. Tutkimusmenetelminä työssä käytetään Kymin telahiomon tuotannon läpimenoaikojen telakohtaista mittaamista ja hionnasta tehtyjen mittausraporttien, pinnoituksista ja hionnoista tehtyjen ostotilauksien sekä SAP R/3-toiminnanohjausjärjestelmästä saatavan kunnossapitodatan tutkintaa. Tiedon lähteenä on käytetty myös kirjallisuutta ja UPM henkilöstön sekä toimittajien haastatteluita. Muiden telahiomojen aikaansaamaan laatuun ja tuotannon läpimenoaikaan verrattuna Kymin telahiomon keskimääräiset hiontatuotannon läpimenoajat ovat telasta riippuen kaksinkertaisia tai jopa lähes nelinkertaisia, vaikka pinnankarheus jää osassa teloista alle asetetun tavoitteen. Telahiomojen muototoleransseissa ei ole niin merkittäviä eroja, mitkä selittäisivät Kymin pidemmät hiontatuotannon läpimenoajat. Tämän takia muototoleransseja ei ole päädytty muuttamaan työn aikana, mutta käyttökokemusten mukaan pinnankarheusvaatimusta voidaan laskea. Telahiontaprosessin muotohiontavaihe on suurin hiontatuotannon läpimenoaikaan ja kustannuksiin vaikuttava tekijä. Hiontamenetelmien ja hionta-arvojen optimoimisella, hiontatyökalujen lastuamiskyvyn ylläpitämisellä, telahiontatuotannon yliprosessoinnin ehkäisyllä ja laatutoleransseihin tyytymisellä voidaan lyhentää kymmeniä tunteja telahiomon tuotannon läpimenoaikaa. Mittausraporttien mukaan merkittävin muutos telahiontaprosessin kustannuksiin ja hiontatuotannon läpimenoaikaan saadaan noudattamalla laatutoleransseja. Telojen kunnossapitoon liittyviä kustannuksia syntyy turhaan lisää, kun vaihdetaan ja hiotaan käyttökelpoisia teloja sekä uudelleen pinnoitetaan teloja, joiden pinnoitepaksuus on vielä riittävä. Pinnoitepaksuuden seurannalla voidaan minimoida telojen ennenaikaiset uudelleenpinnoitukset. Mittalaitteiden avulla pystyy optimoimaan telojen hiontavälit. Hiontavälien optimointi lyhentää myös hiontajonoa. Tällöin voidaan hyödyntää suunnitellun hiontajärjestyksen tuomia etuja tehokkaammin ja saavuttaa nopeampia tuotannon läpimenoaikoja.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The accelerating adoption of electrical technologies in vehicles over the recent years has led to an increase in the research on electrochemical energy storage systems, which are among the key elements in these technologies. The application of electrochemical energy storage systems for instance in hybrid electrical vehicles (HEVs) or hybrid mobile working machines allows tolerating high power peaks, leading to an opportunity to downsize the internal combustion engine and reduce fuel consumption, and therefore, CO2 and other emissions. Further, the application of electrochemical energy storage systems provides an option of kinetic and potential energy recuperation. Presently, the lithium-ion (Li-ion) battery is considered the most suitable electrochemical energy storage type in HEVs and hybrid mobile working machines. However, the intensive operating cycle produces high heat losses in the Li-ion battery, which increase its operating temperature. The Li-ion battery operation at high temperatures accelerates the ageing of the battery, and in the worst case, may lead to a thermal runaway and fire. Therefore, an appropriate Li-ion battery cooling system should be provided for the temperature control in applications such as HEVs and mobile working machines. In this doctoral dissertation, methods are presented to set up a thermal model of a single Li-ion cell and a more complex battery module, which can be used if full information about the battery chemistry is not available. In addition, a non-destructive method is developed for the cell thermal characterization, which allows to measure the thermal parameters at different states of charge and in different points of cell surface. The proposed models and the cell thermal characterization method have been verified by experimental measurements. The minimization of high thermal non-uniformity, which was detected in the pouch cell during its operation with a high C-rate current, was analysed by applying a simplified pouch cell 3D thermal model. In the analysis, heat pipes were incorporated into the pouch cell cooling system, and an optimization algorithm was generated for the estimation of the optimalplacement of heat pipes in the pouch cell cooling system. An analysis of the application of heat pipes to the pouch cell cooling system shows that heat pipes significantly decrease the temperature non-uniformity on the cell surface, and therefore, heat pipes were recommended for the enhancement of the pouch cell cooling system.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In spatial environments, we consider social welfare functions satisfying Arrow's requirements. i.e., weak Pareto and independence of irrelevant alternatives. When the policy space os a one-dimensional continuum, such a welfare function is determined by a collection of 2n strictly quasi-concave preferences and a tie-breaking rule. As a corrollary, we obtain that when the number of voters is odd, simple majority voting is transitive if and only if each voter's preference is strictly quasi-concave. When the policy space is multi-dimensional, we establish Arrow's impossibility theorem. Among others, we show that weak Pareto, independence of irrelevant alternatives, and non-dictatorship are inconsistent if the set of alternatives has a non-empty interior and it is compact and convex.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In spatial environments we consider social welfare functions satisfying Arrow’s requirements, i.e. weak Pareto and independence of irrelevant alternatives. Individual preferences measure distances between alternatives according to the Lp-norm (for a fixed p => 1). When the policy space is multi-dimensional and the set of alternatives has a non-empty interior and it is compact and convex, any quasi-transitive welfare function must be oligarchic. As a corollary we obtain that for transitive welfare functions weak Pareto, independence of irrelevant alternatives, and non-dictatorship are inconsistent if the set of alternatives has a non-empty interior and it is compact and convex.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper we provide a thorough characterization of the asset returns implied by a simple general equilibrium production economy with Chew–Dekel risk preferences and convex capital adjustment costs. When households display levels of disappointment aversion consistent with the experimental evidence, a version of the model parameterized to match the volatility of output and consumption growth generates unconditional expected asset returns and price of risk in line with the historical data. For the model with Epstein–Zin preferences to generate similar statistics, the relative risk aversion coefficient needs to be about 55, two orders of magnitude higher than the available estimates. We argue that this is not surprising, given the limited risk imposed on agents by a reasonably calibrated stochastic growth model.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le domaine des systèmes de référence quantiques, dont les dernière avancées sont brièvement présentées au chapitre 1, est extrêmement pertinent à la compréhension de la dégradation des états quantiques et de l’évolution d’instruments de mesures quantiques. Toutefois, pour arriver à comprendre formellement ces avancées et à apporter une contribution originale au domaine, il faut s’approprier un certain nombre de concepts physiques et mathématiques, in- troduits au chapitre 2. La dégradation des états quantiques est très présente dans le contrôle d’états utiles à l’informatique quantique. Étant donné que ce dernier tente de contrôler des sys- tèmes à deux états, le plus souvent des moments cinétiques, l’analyse des systèmes de référence quantiques qui les mesurent s’avère opportune. Puisque, parmi les plus petits moments ciné- tiques, le plus connu est de s = 1 et que son état le plus simple est l’état non polarisé, l’étude 2 du comportement d’un système de référence mesurant successivement ce type de moments ci- nétiques constitue le premier pas à franchir. C’est dans le chapitre 3 qu’est fait ce premier pas et il aborde les questions les plus intéressantes, soit celles concernant l’efficacité du système de référence, sa longévité et leur maximum. La prochaine étape est de considérer des états de moments cinétiques polarisés et généraux, étape qui est abordée dans le chapitre 4. Cette fois, l’analyse de la dégradation du système de référence est un peu plus complexe et nous pouvons l’inspecter approximativement par l’évolution de certains paramètres pour une certaine classe d’états de système de référence. De plus, il existe une interaction entre le système de référence et le moment cinétique qui peut avoir un effet sur le système de référence tout à fait comparable à l’effet de la mesure. C’est cette même interaction qui est étudiée dans le chapitre 5, mais, cette fois, pour des moments cinétiques de s = 1. Après une comparaison avec la mesure, il devient manifeste que les ressemblances entre les deux processus sont beaucoup moins apparentes, voire inexistantes. Ainsi, cette ressemblance ne semble pas générale et semble accidentelle lorsqu’elle apparaît.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La thèse propose d’introduire une perspective globale dans le traitement juridique du transport intermodal international qui prendrait racine dans la stratégie logistique des entreprises. La conception juridique se heurte, en effet, aux évolutions opérationnelles et organisationnelles des transports et aboutit à une incertitude juridique. Les transporteurs ont dû s’adapter aux exigences d’optimisation des flux des chargeurs dont les modes de production et de distribution reposent sur le supply chain management (SCM). Ce concept est le fruit de la mondialisation et des technologies de l’information. La concurrence induite par la mondialisation et le pilotage optimal des flux ont impulsé de nouvelles stratégies de la part des entreprises qui tentent d’avoir un avantage concurrentiel sur le marché. Ces stratégies reposent sur l’intégration interfonctionnelle et interoganisationnelle. Dans cette chaîne logistique globale (ou SCM) l’intermodal est crucial. Il lie et coordonne les réseaux de production et de distribution spatialement désagrégés des entreprises et, répond aux exigences de maîtrise de l’espace et du temps, à moindre coût. Ainsi, le transporteur doit d’une part, intégrer les opérations de transport en optimisant les déplacements et, d’autre part, s’intégrer à la chaîne logistique du client en proposant des services de valeur ajoutée pour renforcer la compétitivité de la chaîne de valeur. Il en découle une unité technique et économique de la chaîne intermodale qui est pourtant, juridiquement fragmentée. Les Conventions internationales en vigueur ont été élaborées pour chaque mode de transport en faisant fi de l’interaction entre les modes et entre les opérateurs. L’intermodal est considéré comme une juxtaposition des modes et des régimes juridiques. Ce dépeçage juridique contraste avec la gestion de la chaîne intermodale dont les composantes individuelles s’effacent au profit de l’objectif global à atteindre. L’on expose d’abord l’ampleur de l’incertitude juridique due aux difficultés de circonscrire le champ d’opérations couvert par les Conventions en vigueur. Une attention est portée aux divergences d’interprétations qui débouchent sur la « désunification » du droit du transport. On s’intéresse ensuite aux interactions entre le transport et la chaîne logistique des chargeurs. Pour cela, on retrace l’évolution des modes de production et de distribution de ces derniers. C’est effectivement de la stratégie logistique que découle la conception de la chaîne intermodale. Partant de ce système, on identifie les caractéristiques fondamentales de l’intermodal. La thèse aboutit à dissiper les confusions liées à la qualification de l’intermodal et qui sont à la base des divergences d’interprétations et de l’incertitude juridique. De plus, elle met en exergue l’unité économique du contrat de transport intermodal qui devrait guider la fixation d’un régime de responsabilité dédié à ce système intégré de transport. Enfin, elle initie une approche ignorée des débats juridiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L-glutaminases (L—glutamine amidohydrolase EC.3.5.l.2) is proposed as a prospective candidate for enzyme therapy cnf cancer and also as zui important additive during enzymatic digestion of shoyu koji since it could enhance glutamate content of soysauce. Commercial production of glutaminase could make possible its wide application in these areas, which would demand availability of potential sources and suitable fermentation techniques. The ‘present investigation highlighted marine environment as a potential source of efficient glutaminase producing bacteria mainly species of pseudomonas, aeromonas ,vibrio,alcaligenes, acinetobacter bacillus and planococci.Among them pseudomonas fluorescens ACMR 267 and v.cholerae ACMR 347 were chosen as the ideal strains for glutaminase production.Extracellular glutaminase fraction from all strains were in higher titres than intracellular enzymes during growth in mineral media, nutrient broth and nutrient broth added with glutamine.Glutaminase from all strains were purified employing (NH4)2SO4 fractionation followed tnr dialysis and ion exchange chromatography. The purified glutaminase from all strains were observed to be active and stable over a wide range of gfii and temperature.Optimization studies cflf environmental variables that normally influence time yiehi of glutaminase indicated that the optimal requirements of these bacteria for maximal glutaminase production remained stable irrespective of the medium, they are provided with for enzyme production. However, solid state fermentation technique was observed to be the most suitable process for the production of Glutaminase.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Friction welding is a solid state joining process that produces coalescence in materials, using the heat developed between surfaces through a combination of mechanical induced rubbing motion and applied load. In rotary friction welding technique heat is generated by the conversion of mechanical energy into thermal energy at the interface of the work pieces during rotation under pressure. Traditionally friction welding is carried out on a dedicated machine because of its adaptability to mass production. In the present work, steps were made to modify a conventional lathe to rotary friction welding set up to obtain friction welding with different interface surface geometries at two different speeds and to carry out tensile characteristic studies. The surface geometries welded include flat-flat, flat-tapered, tapered-tapered, concave-convex and convex-convex. A comparison of maximum load, breaking load and percentage elongation of different welded geometries has been realized through this project. The maximum load and breaking load were found to be highest for weld formed between rotating flat and stationary tapered at 500RPM and the values were 19.219kN and 14.28 kN respectively. The percentage elongation was found to be highest for weld formed between rotating flat and stationary flat at 500RPM and the value was 21.4%. Hence from the studies it is cleared that process parameter like “interfacing surface geometries” of weld specimens have strong influence on tensile characteristics of friction welded joints

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Formalizing algorithm derivations is a necessary prerequisite for developing automated algorithm design systems. This report describes a derivation of an algorithm for incrementally matching conjunctive patterns against a growing database. This algorithm, which is modeled on the Rete matcher used in the OPS5 production system, forms a basis for efficiently implementing a rule system. The highlights of this derivation are: (1) a formal specification for the rule system matching problem, (2) derivation of an algorithm for this task using a lattice-theoretic model of conjunctive and disjunctive variable substitutions, and (3) optimization of this algorithm, using finite differencing, for incrementally processing new data.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Many multivariate methods that are apparently distinct can be linked by introducing one or more parameters in their definition. Methods that can be linked in this way are correspondence analysis, unweighted or weighted logratio analysis (the latter also known as "spectral mapping"), nonsymmetric correspondence analysis, principal component analysis (with and without logarithmic transformation of the data) and multidimensional scaling. In this presentation I will show how several of these methods, which are frequently used in compositional data analysis, may be linked through parametrizations such as power transformations, linear transformations and convex linear combinations. Since the methods of interest here all lead to visual maps of data, a "movie" can be made where where the linking parameter is allowed to vary in small steps: the results are recalculated "frame by frame" and one can see the smooth change from one method to another. Several of these "movies" will be shown, giving a deeper insight into the similarities and differences between these methods