935 resultados para pragmatic problem of induction
Resumo:
Biological scaling analyses employing the widely used bivariate allometric model are beset by at least four interacting problems: (1) choice of an appropriate best-fit line with due attention to the influence of outliers; (2) objective recognition of divergent subsets in the data (allometric grades); (3) potential restrictions on statistical independence resulting from phylogenetic inertia; and (4) the need for extreme caution in inferring causation from correlation. A new non-parametric line-fitting technique has been developed that eliminates requirements for normality of distribution, greatly reduces the influence of outliers and permits objective recognition of grade shifts in substantial datasets. This technique is applied in scaling analyses of mammalian gestation periods and of neonatal body mass in primates. These analyses feed into a re-examination, conducted with partial correlation analysis, of the maternal energy hypothesis relating to mammalian brain evolution, which suggests links between body size and brain size in neonates and adults, gestation period and basal metabolic rate. Much has been made of the potential problem of phylogenetic inertia as a confounding factor in scaling analyses. However, this problem may be less severe than suspected earlier because nested analyses of variance conducted on residual variation (rather than on raw values) reveals that there is considerable variance at low taxonomic levels. In fact, limited divergence in body size between closely related species is one of the prime examples of phylogenetic inertia. One common approach to eliminating perceived problems of phylogenetic inertia in allometric analyses has been calculation of 'independent contrast values'. It is demonstrated that the reasoning behind this approach is flawed in several ways. Calculation of contrast values for closely related species of similar body size is, in fact, highly questionable, particularly when there are major deviations from the best-fit line for the scaling relationship under scrutiny.
Resumo:
This research paper focuses on the Russian food retail sector and its structure and development. At the momentit is one of the fastest growing markets today with 12.1% growth last year (2004). The growth originates from high oil price, which has been accumulated to people's wages. They are growing nominally more than 20% annually. But even though the income increases, the share of food of all retailtrade has been fairly stable with only a slight decline. Thus, the consumption is shifting to products with more quality and value. The shareof modern retail outlets is low, as the Russian retail sector is still very dispersed to traditional retail outlets such as kiosks, open markets and small grocery stores. The store chains are, however, becoming more and more significant. The biggest market for retailers is Moscow but nowadays the chains are expanding rapidly into other regions. Even though the markets have not been saturated in Moscow, the best prospects for growth are in the regions. The most important factor restricting the growth in Moscowis the availability of real estate and land plots for stores. The market is moving forward to saturation, and a consolidation process will follow. In fact, it has already started but not many acquisitions have been made so far. To this point the domestic chains have settled to form only alliances. The foreign players will be very strong in the tightening competition in the future. The problem of domestic chains is that the stores are nonstandardized, which is not cost-efficient. The chains are trying to enhance their power in price negotiations by forming purchasing alliances, introducing private label goods and using the regional expansion as a striking weapon. In order to follow the growing chains to other regions the producer must sell its products to the chains at favorable terms. Suppliers are strong in negotiations when they have a functioning distribution network, ability to JIT deliveries, proper documentationpolicies, a strong brand, reliability in deliveries and a fair price. The size of the entry ticket, i.e. the listing fee may define the shelf space a producer gets in the stores.
Resumo:
The problem of selecting anappropriate wavelet filter is always present in signal compression based on thewavelet transform. In this report, we propose a method to select a wavelet filter from a predefined set of filters for the compression of spectra from a multispectral image. The wavelet filter selection is based on the Learning Vector Quantization (LVQ). In the training phase for the test images, the best wavelet filter for each spectrum has been found by a careful compression-decompression evaluation. Certain spectral features are used in characterizing the pixel spectra. The LVQ is used to form the best wavelet filter class for different types of spectra from multispectral images. When a new image is to be compressed, a set of spectra from that image is selected, the spectra are classified by the trained LVQand the filter associated to the largest class is selected for the compression of every spectrum from the multispectral image. The results show, that almost inevery case our method finds the most suitable wavelet filter from the pre-defined set for the compression.
Resumo:
The geometric characterisation of tree orchards is a high-precision activity comprising the accurate measurement and knowledge of the geometry and structure of the trees. Different types of sensors can be used to perform this characterisation. In this work a terrestrial LIDAR sensor (SICK LMS200) whose emission source was a 905-nm pulsed laser diode was used. Given the known dimensions of the laser beam cross-section (with diameters ranging from 12 mm at the point of emission to 47.2 mm at a distance of 8 m), and the known dimensions of the elements that make up the crops under study (flowers, leaves, fruits, branches, trunks), it was anticipated that, for much of the time, the laser beam would only partially hit a foreground target/object, with the consequent problem of mixed pixels or edge effects. Understanding what happens in such situations was the principal objective of this work. With this in mind, a series of tests were set up to determine the geometry of the emitted beam and to determine the response of the sensor to different beam blockage scenarios. The main conclusions that were drawn from the results obtained were: (i) in a partial beam blockage scenario, the distance value given by the sensor depends more on the blocked radiant power than on the blocked surface area; (ii) there is an area that influences the measurements obtained that is dependent on the percentage of blockage and which ranges from 1.5 to 2.5 m with respect to the foreground target/object. If the laser beam impacts on a second target/object located within this range, this will affect the measurement given by the sensor. To interpret the information obtained from the point clouds provided by the LIDAR sensors, such as the volume occupied and the enclosing area, it is necessary to know the resolution and the process for obtaining this mesh of points and also to be aware of the problem associated with mixed pixels.
Resumo:
At the beginning of the 21st century, some Catalan university libraries detected a need stemming from the lack of space and the reconversion of physical libraries within the new European educational panorama. With the same cooperative spirit that characterized previous CBUC (Consortium of Academic Libraries of Catalonia) programs and services, the Consortium set in motion a project to address this need. An initial study was commissioned in 2002, and in 2003 a suitable building (old infantry barracks) was found in Lleida. The official opening took place in 2008. GEPA (Guaranteed Space for the Preservation of Access) facility is a cooperative repository, whose objectives are to store and preserve low use documents, ensuring their future access when needed, to convert room for books into room for library users, and doing it saving both space and money. The paper presents a brief historical introduction about the physical management of collections in libraries, and a short overview about high density library repositories all over the world, as an answer to the pressing problem of lack of spaces. The main goals of the communication are to comment the architectural project and its librarian issues, and to show how the GEPA facility allowed to change the spaces in university libraries in Catalonia. On the one hand, the paper deals with the selection of an old building to be renovated, the determination of the librarian needs, the compact shelving system chosen to store the documents in the building, the relation between physical space and information management, and the logistics involved in the load of low use documents from the libraries into the facility. On the other hand, we will show some examples of physical changes in Catalan libraries after large loads of documents to GEPA.
Resumo:
Operatiivisen tiedon tuottaminen loppukäyttäjille analyyttistä tarkastelua silmällä pitäen aiheuttaa ongelmia useille yrityksille. Diplomityö pyrkii ratkaisemaan ko. ongelman Teleste Oyj:ssä. Työ on jaettu kolmeen pääkappaleeseen. Kappale 2 selkiyttää On-Line Analytical Processing (OLAP)- käsitteen. Kappale 3 esittelee muutamia OLAP-tuotteiden valmistajia ja heidän arkkitehtuurejaan sekä tyypillisten sovellusalueiden lisäksi huomioon otettavia asioita OLAP käyttöönoton yhteydessä. Kappale 4, tuo esille varsinaisen ratkaisun. Teknisellä arkkitehtuurilla on merkittävä asema ratkaisun rakenteen kannalta. Tässä on sovellettu Microsoft:n tietovarasto kehysrakennetta. Kappaleen 4 edetessä, tapahtumakäsittelytieto muutetaan informaatioksi ja edelleen loppukäyttäjien tiedoksi. Loppukäyttäjät varustetaan tehokkaalla ja tosiaikaisella analysointityökalulla moniulotteisessa ympäristössä. Vaikka kiertonopeus otetaan työssä sovellusesimerkiksi, työ ei pyri löytämään optimaalista tasoa Telesten varastoille. Siitä huolimatta eräitä parannusehdotuksia mainitaan.
Resumo:
Vaatimus kuvatiedon tiivistämisestä on tullut entistä ilmeisemmäksi viimeisen kymmenen vuoden aikana kuvatietoon perustuvien sovellutusten myötä. Nykyisin kiinnitetään erityistä huomiota spektrikuviin, joiden tallettaminen ja siirto vaativat runsaasti levytilaa ja kaistaa. Aallokemuunnos on osoittautunut hyväksi ratkaisuksi häviöllisessä tiedontiivistämisessä. Sen toteutus alikaistakoodauksessa perustuu aallokesuodattimiin ja ongelmana on sopivan aallokesuodattimen valinta erilaisille tiivistettäville kuville. Tässä työssä esitetään katsaus tiivistysmenetelmiin, jotka perustuvat aallokemuunnokseen. Ortogonaalisten suodattimien määritys parametrisoimalla on työn painopisteenä. Työssä todetaan myös kahden erilaisen lähestymistavan samanlaisuus algebrallisten yhtälöiden avulla. Kokeellinen osa sisältää joukon testejä, joilla perustellaan parametrisoinnin tarvetta. Erilaisille kuville tarvitaan erilaisia suodattimia sekä erilaiset tiivistyskertoimet saavutetaan eri suodattimilla. Lopuksi toteutetaan spektrikuvien tiivistys aallokemuunnoksen avulla.
Resumo:
Työssä tutkitaan nopeusanturittoman vaihtovirtakäytön skalaarisia ohjaus- ja säätömenetelmiä. Työn alussa esitetään perusteoriat taajuusmuuttajista ja oikosulkumoottoreista. Tämän jälkeen esitellään yleisimmin kirjallisuudessa esiintyneet skalaariohjaukset ja –säädöt. Vektorisäätöä ja erityisesti moottoriparametrien vaikutusta säädön toimivuuteen esitellään lyhyesti. Työn tavoitteena on ACS800 taajuusmuuttajan skalaarisäädön tutkiminen. ACS800:n nykyinen skalaarisäätö on liian sidoksissa vektorisäätöön, joten simulointien ja kirjallisuustutkimuksen tarkoituksena on täysin vektorisäädöstä eriytetyn skalaarisäädön kehitysmahdollisuuksien tutkiminen. Kirjallisuudessa esiintyneiden säätöjen avulla muodostetaan diskreettiaikainen toteutus skalaarisäädölle vaihtovirtakäytössä, jossa on käytössä virran ja välipiirijännitteen takaisinkytkentä. Säädettävää moottoria mallinnetaan jatkuvaaikaisella L-sijaiskytkennällä. Välipiirin mallinnus toimii myös jatkuva-aikaisena lukuun ottamatta välipiirin tasavirtakomponenttia, joka muodostetaan virran takaisinkytkennän ja PWM-modulaattorin kytkinasentojen avulla. Simuloinnin tarkoituksena on mallintaa skalaarisäädön suurimpia ongelmia, kuten virta- ja välijännitesäätöä. Tuloksista voidaan päätellä, että perussäädöt toimivat moitteettomasti, mutta erityisesti virtasäätöä tulisi kehittää.
Resumo:
Kolmiulotteisten kappaleiden rekonstruktio on yksi konenäön haastavimmista ongelmista, koska kappaleiden kolmiulotteisia etäisyyksiä ei voida selvittää yhdestä kaksiulotteisesta kuvasta. Ongelma voidaan ratkaista stereonäön avulla, jossa näkymän kolmiulotteinen rakenne päätellään usean kuvan perusteella. Tämä lähestymistapa mahdollistaa kuitenkin vain rekonstruktion niille kappaleiden osille, jotka näkyvät vähintään kahdessa kuvassa. Piilossa olevien osien rekonstruktio ei ole mahdollista pelkästään stereonäön avulla. Tässä työssä on kehitetty uusi menetelmä osittain piilossa olevien kolmiulotteisten tasomaisten kappaleiden rekonstruktioon. Menetelmän avulla voidaan selvittää hyvällä tarkkuudella tasomaisista pinnoista koostuvan kappaleen muoto ja paikka käyttäen kahta kuvaa kappaleesta. Menetelmä perustuu epipolaarigeometriaan, jonka avulla selvitetään molemmissa kuvissa näkyvät kappaleiden osat. Osittain piilossa olevien piirteiden rekonstruointi suoritetaan käyttämäen stereonäköä sekä tietoa kappaleen rakenteesta. Esitettyä ratkaisua voitaisiin käyttää esimerkiksi kolmiulotteisten kappaleiden visualisointiin, robotin navigointiin tai esineentunnistukseen.
Resumo:
Meta-analyses are considered as an important pillar of evidence-based medicine. The aim of this review is to describe the main principles of a meta-analysis and to use examples of head and neck oncology to demonstrate their clinical impact and methodological interest. The major role of individual patient data is outlined, as well as the superiority of individual patient data over meta-analyses based on published summary data. The major clinical breakthrough of head and neck meta-analyses are summarized, regarding concomitant chemotherapy, altered fractionated chemotherapy, new regimens of induction chemotherapy or the use of radioprotectants. Recent methodological developments are described, including network meta-analyses, the validation of surrogate markers. Lastly, the future of meta-analyses is discussed in the context of personalized medicine.
Resumo:
Työn tutkimusongelma oli selventää, tutkia ja analysoida dynaamisen hinnoittelun tekijät ja mahdollisuudet tuotevarianttien hinnoittelussa. Tutkimusongelman selvittämiseksi työlle asetettiin 8 tavoitetta - Saada selville miksi tuotevarianttien hinnoittelu on ongelmallista - Esittää kuinka tuotevarianttien hinnat teoreettisesti tulisi asettaa - Tunnistaa tuotevarianttien hinnoittelun ulottuvuudet ja selvittää dynaamisen hinnoittelun edut staattiseen hinnoitteluun verrattuna - Esitellä analyysikehikko hinnoittelun tilan analysointiin - Tunnistaa dynaamisen hinnoittelun tuotevarianteille suomat mahdollisuudet - Etsiä soveltuvat hinnoittelumenetelmät tuotevarianttien dynaamiseen hinnoitteluun - Analysoida tuotevariantteja myyvän yrityksen hinnoittelu - Tunnistaa ja arvioida dynaamisen hinnoittelun edut yritykselle Diplomityössä käytettiin useita tutkimusmenetelmiä. Perustieto haettiin kirjallisuustutkimuksella ja sitä täydennettiin haastatteluilla. Tutkimusprosessi alkoi tutkimuksella tuotevarianttien hinnoittelusta ja kirjallisuuden perusteella luotiin näkökulma ja yleiset kehityssuunnat tarkempaa tutkimusta varten. Kaksi tärkeintä tuotevariaatioiden hinnoitteludimensiota tunnistettiin ja niiden analysointia varten luotiin nelikenttämalli. Kirjallisuustutkimuksen ja tarkemman kohdeyrityksen tarkastelun perusteella dynaaminen tuotelinjahinnoittelu on tuotevarianttien dynaamisen hinnoittelun tavoitetila. Nelikenttämallia käytettiin kohdeyrityksen hinnoittelun tilan arviointiin ja dynaamisen hinnoittelun suurimmat hyödyt löydettiin. Tutkimuksen päätulokset ovat - Hinnoittelun dynaamisuutta tulee tuotevarianteilla tutkia hinnoittelun älykkyyden ja kehittyneisyyden kanssa - Tuotevariaatioiden hinnoittelun tavoitetila on dynaaminen tuotelinjahinnoittelu - Hinnoittelun kehittäminen staattisesta dynaamiseen tuo huomattavia etuja - Tärkein etu on parempi hintojen hallinta ja mahdollisuus johtaa hintoja tehokkaasti. Tämän vuoksi hinnoitteluanalyysissa havaittiin selvästi lisääntyneitä voittoja - Hinnoittelun älykkyyden nostaminen hyödyttää yritystä ja saa aikaan lisäyksen voitoissa
Resumo:
Sleep is a complex behavior both in its manifestation and regulation, that is common to almost all animal species studied thus far. Sleep is not a unitary behavior and has many different aspects, each of which is tightly regulated and influenced by both genetic and environmental factors. Despite its essential role for performance, health, and well-being, genetic mechanisms underlying this complex behavior remain poorly understood. One important aspect of sleep concerns its homeostatic regulation, which ensures that levels of sleep need are kept within a range still allowing optimal functioning during wakefulness. Uncovering the genetic pathways underlying the homeostatic aspect of sleep is of particular importance because it could lead to insights concerning sleep's still elusive function and is therefore a main focus of current sleep research. In this chapter, we first give a definition of sleep homeostasis and describe the molecular genetics techniques that are used to examine it. We then provide a conceptual discussion on the problem of assessing a sleep homeostatic phenotype in various animal models. We finally highlight some of the studies with a focus on clock genes and adenosine signaling molecules.
Resumo:
The history of the International Institute for Management Development (IMD), one of the most prestigious business schools in the world, highlights the role of multinationals in establishing business education in Europe and the problem of legitimacy. The creation of IMD's predecessors CEI and IMEDE by Alcan and Nestlé also illuminates the role of Harvard Business School in their development and the reciprocal influences of American and European management education after World War II.
Resumo:
[spa] El estudio analiza la evolución de los gases de efecto invernadero (GEI) y las emisiones de acidificación para Italia durante el periodo 1995-2005. Los datos muestran que mientras las emisiones que contribuyen a la acidificación han disminuido constantemente, las emisiones de GEI han aumentado debido al aumento de dióxido de carbono. El objetivo de este estudio es poner de relieve cómo diferentes factores económicos, en particular el crecimiento económico, el desarrollo de una tecnología menos contaminante y la estructura del consumo, han impulsado la evolución de las emisiones. La metodología propuesta es un análisis de descomposición estructural (ADE), método que permite descomponer los cambios de la variable de interés entre las diferentes fuerzas y revelar la importancia de cada factor. Por otra parte, este estudio considera la importancia del comercio internacional e intenta incluir el “problema de la responsabilidad”. Es decir, a través de las relaciones comerciales internacionales, un país podría estar exportando procesos de producción contaminantes sin una reducción real de la contaminación implícita en su patrón de consumo. Con este fin, siguiendo primero un enfoque basado en la “responsabilidad del productor”, el ADE se aplica a las emisiones causadas por la producción nacional. Sucesivamente, el análisis se mueve hacia un enfoque basado en la “responsabilidad del consumidor" y la descomposición se aplica a las emisiones relacionadas con la producción nacional o la producción extranjera que satisface la demanda interna. De esta manera, el ejercicio permite una primera comprobación de la importancia del comercio internacional y pone de relieve algunos resultados a nivel global y a nivel sectorial.
Resumo:
[spa] El estudio analiza la evolución de los gases de efecto invernadero (GEI) y las emisiones de acidificación para Italia durante el periodo 1995-2005. Los datos muestran que mientras las emisiones que contribuyen a la acidificación han disminuido constantemente, las emisiones de GEI han aumentado debido al aumento de dióxido de carbono. El objetivo de este estudio es poner de relieve cómo diferentes factores económicos, en particular el crecimiento económico, el desarrollo de una tecnología menos contaminante y la estructura del consumo, han impulsado la evolución de las emisiones. La metodología propuesta es un análisis de descomposición estructural (ADE), método que permite descomponer los cambios de la variable de interés entre las diferentes fuerzas y revelar la importancia de cada factor. Por otra parte, este estudio considera la importancia del comercio internacional e intenta incluir el “problema de la responsabilidad”. Es decir, a través de las relaciones comerciales internacionales, un país podría estar exportando procesos de producción contaminantes sin una reducción real de la contaminación implícita en su patrón de consumo. Con este fin, siguiendo primero un enfoque basado en la “responsabilidad del productor”, el ADE se aplica a las emisiones causadas por la producción nacional. Sucesivamente, el análisis se mueve hacia un enfoque basado en la “responsabilidad del consumidor" y la descomposición se aplica a las emisiones relacionadas con la producción nacional o la producción extranjera que satisface la demanda interna. De esta manera, el ejercicio permite una primera comprobación de la importancia del comercio internacional y pone de relieve algunos resultados a nivel global y a nivel sectorial.