502 resultados para BENCHMARKS
Resumo:
We introduce a width parameter that bounds the complexity of classical planning problems and domains, along with a simple but effective blind-search procedure that runs in time that is exponential in the problem width. We show that many benchmark domains have a bounded and small width provided thatgoals are restricted to single atoms, and hence that such problems are provably solvable in low polynomial time. We then focus on the practical value of these ideas over the existing benchmarks which feature conjunctive goals. We show that the blind-search procedure can be used for both serializing the goal into subgoals and for solving the resulting problems, resulting in a ‘blind’ planner that competes well with a best-first search planner guided by state-of-the-art heuristics. In addition, ideas like helpful actions and landmarks can be integrated as well, producing a planner with state-of-the-art performance.
Resumo:
The chapter presents up-to-date estimates of Italy’s regional GDP, with the present borders, in ten-year benchmarks from 1871 to 2001, and proposes a new interpretative hypothesis based on long-lasting socio-institutional differences. The inverted U-shape of income inequality is confirmed: rising divergence until the midtwentieth century, then convergence. However, the latter was limited to the centrenorth: Italy was divided into three parts by the time regional inequality peaked, in 1951, and appears to have been split into two halves by 2001. As a consequence of the falling back of the south, from 1871 to 2001 we record σ-divergence across Italy’s regions, i.e. an increase in dispersion, and sluggish β-convergence. Geographical factors and the market size played a minor role: against them are both the evidence that most of the differences in GDP are due to employment rather than to productivity and the observed GDP patterns of many regions. The gradual converging of regional GDPs towards two equilibria instead follows social and institutional differences − in the political and economic institutions and in the levels of human and social capital – which originated in pre-unification states and did not die (but in part even increased) in postunification Italy.
Resumo:
L'objectif principal de cette thèse consiste à mettre en évidence la persistance du capitalisme familial en Suisse au cours du 20e siècle, et sa résistance aux capitalismes managérial et financier qui sont censés lui avoir succédé. Pour ce faire, nous avons retenu vingt-deux grandes entreprises du secteur des machines, de l'électrotechnique et de la métallurgie - principale branche de l'industrie suisse pour la période considérée -, pour lesquelles ont été recensés les membres des conseils d'administration et les principaux dirigeants exécutifs pour cinq dates- repère couvrant le siècle (1910, 1937, 1957, 1980 et 2000). Cette thèse s'inscrit dans une démarche pluridisciplinaire qui relève à la fois de l'histoire d'entreprise et de la sociologie des dirigeants, et fait appel à différentes méthodes telles que l'analyse de réseau et l'analyse prosopographique. Elle s'articule autour de trois axes de recherche principaux : le premier vise à mettre en évidence l'évolution des modes de gouvernance dans notre groupe d'entreprises, le second investit la question de la coordination patronale et le troisième a pour but de dresser un portrait collectif des élites à la tête de nos vingt-deux firmes. Nos résultats montrent que durant la majeure partie du siècle, la plupart de nos entreprises sont contrôlées par des familles et fonctionnent sur un mode de coordination hors marché qui repose notamment sur un réseau dense de liens interfirmes, le profil des dirigeants restant dans l'ensemble stable. Si la fin du siècle est marquée par plusieurs changements qui confirment l'avènement d'un capitalisme dit financier ou actionnarial et la mise en place de pratiques plus concurrentielles parmi les firmes et les élites industrielles, le maintien du contrôle familial dans plusieurs entreprises et la persistance de certains anciens mécanismes de coopération nous incitent cependant à nuancer ce constat. - The main objective of this research is to highlight the persistence of family capitalism in Switzerland during the 20th century and its resistance to managerial and financial capitalisms that succeeded. For this purpose, we focus on twenty- two big companies of the machine, electrotechnical and metallurgy sector - the main branch of the Swiss industry for the considered period - whose boards of directors and executive managers have been identified for five benchmarks across the century (1910, 1937, 1957, 1980 and 2000). This thesis relates to business history and elites sociology, and uses different methods such as network analysis and prosopography. It is articulated around three main parts. The aim of the first one is to identify the evolution of corporate governance in our twenty-two enterprises, the second part concentrates on interfirms coordination and the objective of the last one is to highlight the profile of the corporate elite leading our firms. Our results show that during the main part of the century, most of the companies were controlled by families and were characterized by non-market mechanisms of coordination such as interlocking directorates ; moreover, the profile of the corporate elite remained very stable. Although some major changes that took place by the end of the century confirmed a transition towards financial capitalism and more competitive interaction among firms and the corporate elite, the persistence of family control in several companies and the maintaining of some former mechanisms of coordination allow us to put this evolution into perspective.
Resumo:
Polynomial constraint solving plays a prominent role in several areas of hardware and software analysis and verification, e.g., termination proving, program invariant generation and hybrid system verification, to name a few. In this paper we propose a new method for solving non-linear constraints based on encoding the problem into an SMT problem considering only linear arithmetic. Unlike other existing methods, our method focuses on proving satisfiability of the constraints rather than on proving unsatisfiability, which is more relevant in several applications as we illustrate with several examples. Nevertheless, we also present new techniques based on the analysis of unsatisfiable cores that allow one to efficiently prove unsatisfiability too for a broad class of problems. The power of our approach is demonstrated by means of extensive experiments comparing our prototype with state-of-the-art tools on benchmarks taken both from the academic and the industrial world.
Resumo:
3 Summary 3. 1 English The pharmaceutical industry has been facing several challenges during the last years, and the optimization of their drug discovery pipeline is believed to be the only viable solution. High-throughput techniques do participate actively to this optimization, especially when complemented by computational approaches aiming at rationalizing the enormous amount of information that they can produce. In siiico techniques, such as virtual screening or rational drug design, are now routinely used to guide drug discovery. Both heavily rely on the prediction of the molecular interaction (docking) occurring between drug-like molecules and a therapeutically relevant target. Several softwares are available to this end, but despite the very promising picture drawn in most benchmarks, they still hold several hidden weaknesses. As pointed out in several recent reviews, the docking problem is far from being solved, and there is now a need for methods able to identify binding modes with a high accuracy, which is essential to reliably compute the binding free energy of the ligand. This quantity is directly linked to its affinity and can be related to its biological activity. Accurate docking algorithms are thus critical for both the discovery and the rational optimization of new drugs. In this thesis, a new docking software aiming at this goal is presented, EADock. It uses a hybrid evolutionary algorithm with two fitness functions, in combination with a sophisticated management of the diversity. EADock is interfaced with .the CHARMM package for energy calculations and coordinate handling. A validation was carried out on 37 crystallized protein-ligand complexes featuring 11 different proteins. The search space was defined as a sphere of 15 R around the center of mass of the ligand position in the crystal structure, and conversely to other benchmarks, our algorithms was fed with optimized ligand positions up to 10 A root mean square deviation 2MSD) from the crystal structure. This validation illustrates the efficiency of our sampling heuristic, as correct binding modes, defined by a RMSD to the crystal structure lower than 2 A, were identified and ranked first for 68% of the complexes. The success rate increases to 78% when considering the five best-ranked clusters, and 92% when all clusters present in the last generation are taken into account. Most failures in this benchmark could be explained by the presence of crystal contacts in the experimental structure. EADock has been used to understand molecular interactions involved in the regulation of the Na,K ATPase, and in the activation of the nuclear hormone peroxisome proliferatoractivated receptors a (PPARa). It also helped to understand the action of common pollutants (phthalates) on PPARy, and the impact of biotransformations of the anticancer drug Imatinib (Gleevec®) on its binding mode to the Bcr-Abl tyrosine kinase. Finally, a fragment-based rational drug design approach using EADock was developed, and led to the successful design of new peptidic ligands for the a5ß1 integrin, and for the human PPARa. In both cases, the designed peptides presented activities comparable to that of well-established ligands such as the anticancer drug Cilengitide and Wy14,643, respectively. 3.2 French Les récentes difficultés de l'industrie pharmaceutique ne semblent pouvoir se résoudre que par l'optimisation de leur processus de développement de médicaments. Cette dernière implique de plus en plus. de techniques dites "haut-débit", particulièrement efficaces lorsqu'elles sont couplées aux outils informatiques permettant de gérer la masse de données produite. Désormais, les approches in silico telles que le criblage virtuel ou la conception rationnelle de nouvelles molécules sont utilisées couramment. Toutes deux reposent sur la capacité à prédire les détails de l'interaction moléculaire entre une molécule ressemblant à un principe actif (PA) et une protéine cible ayant un intérêt thérapeutique. Les comparatifs de logiciels s'attaquant à cette prédiction sont flatteurs, mais plusieurs problèmes subsistent. La littérature récente tend à remettre en cause leur fiabilité, affirmant l'émergence .d'un besoin pour des approches plus précises du mode d'interaction. Cette précision est essentielle au calcul de l'énergie libre de liaison, qui est directement liée à l'affinité du PA potentiel pour la protéine cible, et indirectement liée à son activité biologique. Une prédiction précise est d'une importance toute particulière pour la découverte et l'optimisation de nouvelles molécules actives. Cette thèse présente un nouveau logiciel, EADock, mettant en avant une telle précision. Cet algorithme évolutionnaire hybride utilise deux pressions de sélections, combinées à une gestion de la diversité sophistiquée. EADock repose sur CHARMM pour les calculs d'énergie et la gestion des coordonnées atomiques. Sa validation a été effectuée sur 37 complexes protéine-ligand cristallisés, incluant 11 protéines différentes. L'espace de recherche a été étendu à une sphère de 151 de rayon autour du centre de masse du ligand cristallisé, et contrairement aux comparatifs habituels, l'algorithme est parti de solutions optimisées présentant un RMSD jusqu'à 10 R par rapport à la structure cristalline. Cette validation a permis de mettre en évidence l'efficacité de notre heuristique de recherche car des modes d'interactions présentant un RMSD inférieur à 2 R par rapport à la structure cristalline ont été classés premier pour 68% des complexes. Lorsque les cinq meilleures solutions sont prises en compte, le taux de succès grimpe à 78%, et 92% lorsque la totalité de la dernière génération est prise en compte. La plupart des erreurs de prédiction sont imputables à la présence de contacts cristallins. Depuis, EADock a été utilisé pour comprendre les mécanismes moléculaires impliqués dans la régulation de la Na,K ATPase et dans l'activation du peroxisome proliferatoractivated receptor a (PPARa). Il a également permis de décrire l'interaction de polluants couramment rencontrés sur PPARy, ainsi que l'influence de la métabolisation de l'Imatinib (PA anticancéreux) sur la fixation à la kinase Bcr-Abl. Une approche basée sur la prédiction des interactions de fragments moléculaires avec protéine cible est également proposée. Elle a permis la découverte de nouveaux ligands peptidiques de PPARa et de l'intégrine a5ß1. Dans les deux cas, l'activité de ces nouveaux peptides est comparable à celles de ligands bien établis, comme le Wy14,643 pour le premier, et le Cilengitide (PA anticancéreux) pour la seconde.
Resumo:
Peer-reviewed
Resumo:
Tietokonejärjestelmän osien ja ohjelmistojen suorituskykymittauksista saadaan tietoa,jota voidaan käyttää suorituskyvyn parantamiseen ja laitteistohankintojen päätöksen tukena. Tässä työssä tutustutaan suorituskyvyn mittaamiseen ja mittausohjelmiin eli ns. benchmark-ohjelmistoihin. Työssä etsittiin ja arvioitiin eri tyyppisiä vapaasti saatavilla olevia benchmark-ohjelmia, jotka soveltuvat Linux-laskentaklusterin suorituskyvynanalysointiin. Benchmarkit ryhmiteltiin ja arvioitiin testaamalla niiden ominaisuuksia Linux-klusterissa. Työssä käsitellään myös mittausten tekemisen ja rinnakkaislaskennan haasteita. Benchmarkkeja löytyi moneen tarkoitukseen ja ne osoittautuivat laadultaan ja laajuudeltaan vaihteleviksi. Niitä on myös koottu ohjelmistopaketeiksi, jotta laitteiston suorituskyvystä saisi laajemman kuvan kuin mitä yhdellä ohjelmalla on mahdollista saada. Olennaista on ymmärtää nopeus, jolla dataa saadaan siirretyä prosessorille keskusmuistista, levyjärjestelmistä ja toisista laskentasolmuista. Tyypillinen benchmark-ohjelma sisältää paljon laskentaa tarvitsevan matemaattisen algoritmin, jota käytetään tieteellisissä ohjelmistoissa. Benchmarkista riippuen tulosten ymmärtäminen ja hyödyntäminen voi olla haasteellista.
Resumo:
There is currently a considerable diversity of quantitative measures available for summarizing the results in single-case studies. Given that the interpretation of some of them is difficult due to the lack of established benchmarks, the current paper proposes an approach for obtaining further numerical evidence on the importance of the results, complementing the substantive criteria, visual analysis, and primary summary measures. This additional evidence consists of obtaining the statistical significance of the outcome when referred to the corresponding sampling distribution. This sampling distribution is formed by the values of the outcomes (expressed as data nonoverlap, R-squared, etc.) in case the intervention is ineffective. The approach proposed here is intended to offer the outcome"s probability of being as extreme when there is no treatment effect without the need for some assumptions that cannot be checked with guarantees. Following this approach, researchers would compare their outcomes to reference values rather than constructing the sampling distributions themselves. The integration of single-case studies is problematic, when different metrics are used across primary studies and not all raw data are available. Via the approach for assigning p values it is possible to combine the results of similar studies regardless of the primary effect size indicator. The alternatives for combining probabilities are discussed in the context of single-case studies pointing out two potentially useful methods one based on a weighted average and the other on the binomial test.
Resumo:
Diplomityön tarkoituksena oli luoda menetelmä Symbian-käyttöjärjestelmää käyttävien älypuhelinten suorituskyvyn määrittämiseen, jotta laitteiden välisiä eroja voitaisiin mitata. Aluksi Symbian-käyttöjärjestelmää ja älypuhelinlaitteistoja tutkittiin suorituskykyyn ja sen vaihteluun vaikuttavien tekijöiden ja osien löytämiseksi. Tämän jälkeen kehitettiin useita testitapauksia sisältävä testikirjasto, jolla voitiin mitata joidenkin suorituskykyyn vaikuttavien käyttöjärjestelmän rajapintojen suoritusaikoja. Testikirjaston testit ajettiin kolmella eri älypuhelinmallilla, jotta testien toimivuutta voitiin arvioida. Lopuksi testituloksia analysoitiin mahdollisten pullonkaulojen havaitsemiseksi suorituskyvystä. Testikirjaston pystyttiin havaitsemaan eroja laitteiden suorituskyvyssä. Viimeisin, uudella Symbianin EKA2-ytimellä varustettu älypuhelin, Nokia E70, jäi mittauksissa viimeiseksi, koska se pärjäsi huonosti muistinvarauksia ja TRAP-poikkeuksia testaavissa tapauksissa. Muilla mitatuilla osa-alueilla se kuitenkin päihitti selvästi muut testatut puhelimet, Nokia N90:n ja Nokia 6630:n. Näiden kahden muun laitteen tulosten skaalan tasaisuus osoittaa, että kehitetyn testikirjaston avulla saadaan johdonmukaisia ja uskottavia mittaustuloksia.
Resumo:
XML:n kasvava suosio dokumenttiformaattina sekä sen alati monipuolistuva käyttö ovat lisänneet XML-tiedonhallintajärjestelmien tarvetta. Yksi tapa XML-dokumenttien hallintaan on edelleen tiedostopohjainen järjestelmä. Erilaisiin tietokantoihin perustuvat XML-tiedonhallintajärjestelmät ovat kuitenkin viime vuosina kasvattaneetsuosiotaan monipuolisempien ominaisuuksien ja paremman suorituskyvyn takia. Lisäksi XML-dokumenttien hallinta tiedostopohjaisessa järjestelmässä käy lähes mahdottomaksi suurilla datamäärillä. Suhteellisen uutena tulokkaana XML-dokumenttienhallintaan ovat tulleet natiivit XML -tietokannat, jotka ovat suunniteltu juuriXML:ää silmälläpitäen. Tässä diplomityössä esitellään erilaisia XML-tiedonhallintajärjestelmiä. Erityisesti relaatiotietokantoihin ja natiiveihin XML -tietokantoihin perustuvien ratkaisujen taustoihin ja teknisiin yksityiskohtiin yritetään luoda syvällinen katsaus. Neljälle XML-tiedonhallintaratkaisulle - Binary Approachille, Edge Approachille, eXistille ja Xindicelle - suoritetaan XMach-1 suorituskykytesti. Lisäksi testattavien ratkaisujen teknistä toimivuutta arvioidaan sekä analyyttisen että käytännön tarkastelun kautta. Suorituskykytestien ja teknisen toimivuuden arvioiden perusteella on tarkoitus valita XML-tiedonhallintaratkaisu Javalla toteutetulle Web-sovellukselle, joka käyttää XML:ää tietojen tallennusformaattina.
Resumo:
Tämän tutkimuksen tavoitteena on selvittää listautumisantien suoriutumista Suomen markkinoilla, sekä verrata pääomasijoittajien ja muiden listaamia yrityksiä. Tutkimusperiodina käytetään 36 kuukautta. Lisäksi tutkitaan lyhyen ajanjakson tuottoja näiden välillä. Tutkimuksessa selvitetään myös se, miten kansainvälisellä aineistollahavaitut, listautumisanteihin liittyvät anomaliat toteutuvat Suomessa. Tutkimuksen aineisto koostuu 48 yrityksestä, jotka listautuivat Helsingin pörssiin vuosien 1996 - 2000 välillä. Tutkimusmenetelmänä käytetään tapahtumatutkimusta. Kerätystä aineistosta lasketaan ylituotot kolmea eri menetelmää käyttämällä, eli lasketaan CAR-, BHAR- ja WR-ylituotot. Aineistolle tehdään myösregressio, jossa alisuoriutumista selitetään erilaisilla muuttujilla. Empiiristen tulosten mukaan listautumisannit keskimäärin alisuoriutuvat Suomen markkinoilla vertailukohteina käytettyihin indekseihin verrattuna. Tämän tulos tukee aiempia, kansainvälisiltä markkinoilta saatuja havaintoja. Sitä vastoin tämän tutkimuksen perusteella pääomasijoittajien listaamat yritykset alisuoriutuvat enemmän kuin muut listatut yritykset. Tämä havainto poikkeaa kansainvälisellä aineistolla tehdyistä tutkimuksista. Tutkittaessa portfolioiden ominaisuuksia, havaittiin erityisesti listautumisvuoden selittävän alisuoriutumisen voimakkuutta.
Resumo:
Jatkuva laadunmittaus osana ohjelmistoprosessia on yleistynyt ohjelmistoyritysten keskuudessa viime vuosien aikana. ISO 9001:2000 -laatustandardi vaatii yrityksiltä tuotteiden ja prosessien laadun mittaamista ja seuraamista. Laadun mittareiden valinta on haastava tehtävä. Yritykset luulevat usein mittaavansa laatua, vaikka ne todellisuudessa mittaavatkin ohjelmistojen eri ominaisuuksia kuten kokoa tai monimutkaisuutta. Tässä diplomityössä kehitetään ohjelmistojen validointiprosessiin vertailuun perustuva laadunmittausprosessi ohjelmistotuotteiden laadun arviointiin, mittaamiseen ja seurantaan. Laatumittarit valitaan ennalta määriteltyjen kriteereiden mukaisesti, ja niille asetetaan tavoitearvot vertailuanalyysistä saatujen tulosten perusteella. Laadunmittausprosessin lisäksi työssä annetaan suositus prosessin käyttöönotosta ja käytöstä osana yrityksen toimintaa, mikä mahdollistaa jatkuvan seurannan sekä kehityksen tulevaisuudessa.
Resumo:
Cartel detection is one of the most basic and most complicated tasks of competition authorities. In recent years, however, variance filters have provided a fairly simple tool for rejecting the existence of price-fixing, with the added advantage that the methodology requires only a low volume of data. In this paper we analyze two aspects of variance filters: 1- the relationship established between market structure and price rigidity, and 2- the use of different benchmarks for implementing the filters. This paper addresses these two issues by applying a variance filter to a gasoline retail market characterized by a set of unique features. Our results confirm the positive relationship between monopolies and price rigidity, and the variance filter's ability to detect non-competitive behavior when an appropriate benchmark is used. Our findings should serve to promote the implementation of this methodology among competition authorities, albeit in the awareness that a more exhaustive complementary analysis is required.
Resumo:
AbstractObjective:To establish benchmarks and study some sonographic characteristics of the thyroid gland in a group of euthyroid children aged up to 5 years as compared with age-matched children with congenital hypothyroidism.Materials and Methods:Thirty-six children (17 female and 19 male) aged between 2 months and 5 years were divided into two groups – 23 euthyroid children and 13 children with congenital hypothyroidism – and were called to undergo ultrasonography.Results:In the group of euthyroid children (n = 23), mean total volume of the thyroid gland was 1.12 mL (minimum, 0.39 mL; maximum, 2.72 mL); a homogeneous gland was found in 17 children (73.91%) and 6 children (26.08%) had a heterogeneous gland. In the group of children with congenital hypothyroidism (n = 13), mean total volume of the thyroid gland was 2.73 mL (minimum, 0.20 mL; maximum, 11.00 mL). As regards thyroid location, 3 patients (23.07%) had ectopic thyroid, and 10 (69.23%) had topic thyroid, and out of the latter, 5 had a homogeneous gland (50%) and 5, a heterogeneous gland (50%). In the group with congenital hypothyroidism, 6 (46.15%) children had etiological diagnosis of dyshormoniogenesis, 3 (23.07%), of ectopic thyroid, and 4 (30.76%), of thyroid hypoplasia.Conclusion:Thyroid ultrasonography is a noninvasive imaging method, widely available, easy to perform and for these reasons could, and should, be performed at any time, including at birth, with no preparation or treatment discontinuation, to aid in the early etiological definition of congenital hypothyroidism.
Resumo:
This article reviews the main contemporary international references on numerical knowledge acquisition in the kindergarten stage. Secondly it analyzes the instructions curricular in two countries-one Spanish-speaking Latin America (Chile) and one European (Spain) - to determine the extent to assume international benchmarks while comparing the curricula of both countries. Finally, it presents a proposal for intervention in the classroom that the combination of different learning contexts and processes to investigate mathematical teaching practices and most effective in promoting and numeracy of children from the earliest ages