994 resultados para Computer Law
Resumo:
Objective: We propose and validate a computer aided system to measure three different mandibular indexes: cortical width, panoramic mandibular index and, mandibular alveolar bone resorption index. Study Design: Repeatability and reproducibility of the measurements are analyzed and compared to the manual estimation of the same indexes. Results: The proposed computerized system exhibits superior repeatability and reproducibility rates compared to standard manual methods. Moreover, the time required to perform the measurements using the proposed method is negligible compared to perform the measurements manually. Conclusions: We have proposed a very user friendly computerized method to measure three different morphometric mandibular indexes. From the results we can conclude that the system provides a practical manner to perform these measurements. It does not require an expert examiner and does not take more than 16 seconds per analysis. Thus, it may be suitable to diagnose osteoporosis using dental panoramic radiographs.
Resumo:
BACKGROUND: So far, none of the existing methods on Murray's law deal with the non-Newtonian behavior of blood flow although the non-Newtonian approach for blood flow modelling looks more accurate. MODELING: In the present paper, Murray's law which is applicable to an arterial bifurcation, is generalized to a non-Newtonian blood flow model (power-law model). When the vessel size reaches the capillary limitation, blood can be modeled using a non-Newtonian constitutive equation. It is assumed two different constraints in addition to the pumping power: the volume constraint or the surface constraint (related to the internal surface of the vessel). For a seek of generality, the relationships are given for an arbitrary number of daughter vessels. It is shown that for a cost function including the volume constraint, classical Murray's law remains valid (i.e. SigmaR(c) = cste with c = 3 is verified and is independent of n, the dimensionless index in the viscosity equation; R being the radius of the vessel). On the contrary, for a cost function including the surface constraint, different values of c may be calculated depending on the value of n. RESULTS: We find that c varies for blood from 2.42 to 3 depending on the constraint and the fluid properties. For the Newtonian model, the surface constraint leads to c = 2.5. The cost function (based on the surface constraint) can be related to entropy generation, by dividing it by the temperature. CONCLUSION: It is demonstrated that the entropy generated in all the daughter vessels is greater than the entropy generated in the parent vessel. Furthermore, it is shown that the difference of entropy generation between the parent and daughter vessels is smaller for a non-Newtonian fluid than for a Newtonian fluid.
Resumo:
Tämä diplomityö tehtiin Convergens Oy:lle. Convergens on elektroniikan suunnittelutoimisto, joka on erikoistunut sulautettuihin järjestelmiin sekä tietoliikennetekniikkaan. Diplomityön tavoitteena oli suunnitella tietokonekortti tietoliikennesovelluksia varten asiakkaalle, jolta vaatimusmäärittelyt tulivat. Työ on rajattu koskemaan laitteen prototyypin suunnittelua. Työssä suunnitellaan pääasiassa WLAN-tukiaseman tietokone. Tukiasema onasennettavissa toimistoihin, varastoihin, kauppoihin sekä myös liikkuvaan ajoneuvoon. Suunnittelussa on otettu nämä asiat huomioon, ja laitteen akun pystyy lataamaan muun muassa auton akulla. Langattomat tekniikat ovat voimakkaasti yleistymässä, ja tämän työn tukiasema tarjoaakin varteenotettavan vaihtoehdon lukuisilla ominaisuuksillaan. Mukana on mm. GPS, Bluetooth sekä Ethernet-valmius. Langattomien tekniikoiden lisäksi myös sulautetut järjestelmät ovat voimakkaasti yleistymässä, ja nykyään mikroprosessoreita löytääkin lähesmistä vain. Tässä projektissa käytetty prosessori on nopeutensa puolesta kilpailukykyinen, ja siitä löytyy useita eri rajapintoja. Jatkossa tietokonekortille on myös tulossa WiMAX-tuki, joka lisää tukiaseman tulevaisuuden arvoa asiakkaalle. Projektiin valittu Freescalen MPC8321E-prosessori on PowerPC-arkkitehtuuriin perustuva ja juuri markkinoille ilmestynyt. Tämä toi mukanaan lisähaasteen, sillä kyseisestä prosessorista ei ollut vielä kaikkea tietoa saatavilla. Mekaniikka toi omat haasteensa mukanaan, sillä se rajoitti piirilevyn koonniin, että ylimääräistä piirilevytilaa ei juurikaan jäänyt. Tämän takia esimerkiksi DDR-muistit olivat haastavia reitittää, sillä muistivetojen on oltava melko samanpituisia keskenään. Käyttöjärjestelmänä projektissa käytetään Linuxia. Suunnittelu alkoi keväällä 2007 ja toimiva prototyyppi oli valmis alkusyksystä. Prototyypin testaus osoitti, että tietokonekortti kykenee täyttämään kaikki asiakkaan vaatimukset. Prototyypin testauksessa löytyneet viat ja optimoinnit on tarkoitus korjata tuotantomalliin, joten se antaa hyvän pohjan jatkosuunnittelua varten.
Resumo:
On yleisesti tiedossa, että väsyttävän kuormituksen alaisena olevat hitsatut rakenteet rikkoutuvat juuri hitsausliitoksista. Täyden tunkeuman hitsausliitoksia sisältävien rakenteiden asiantunteva suunnittelu janykyaikaiset valmistusmenetelmät ovat lähes eliminoineet väsymisvauriot hitsatuissa rakenteissa. Väsymislujuuden parantaminen tiukalla täyden tunkeuman vaatimuksella on kuitenkin epätaloudellinen ratkaisu. Täyden tunkeuman hitsausliitoksille asetettavien laatuvaatimuksien on määriteltävä selkeät tarkastusohjeet ja hylkäämisperusteet. Tämän diplomityön tarkoituksena oli tutkia geometristen muuttujien vaikutusta kuormaa kantavien hitsausliitosten väsymislujuuteen. Huomio kiinnitettiin pääasiassa suunnittelumuuttujiin, joilla on vaikutusta väsymisvaurioiden syntymiseen hitsauksen juuren puolella. Nykyiset määräykset ja standardit, jotka perustuvat kokeellisiin tuloksiin; antavat melko yleisiä ohjeita hitsausliitosten väsymismitoituksesta. Tämän vuoksi muodostettiin kokonaan uudet parametriset yhtälöt sallitun nimellisen jännityksen kynnysarvon vaihteluvälin, ¿¿th, laskemiseksi, jotta vältettäisiin hitsausliitosten juuren puoleiset väsymisvauriot. Lisäksi, jokaiselle liitostyypille laskettiin hitsin juuren puolen väsymisluokat (FAT), joita verrattiin olemassa olevilla mitoitusohjeilla saavutettuihin tuloksiin. Täydentäviksi referensseiksi suoritettiin useita kolmiulotteisia (3D) analyysejä. Julkaistuja kokeellisiin tuloksiin perustuvia tietoja käytettiin apuna hitsausliitosten väsymiskäyttäytymisen ymmärtämiseksi ja materiaalivakioiden määrittämiseksi. Kuormaa kantavien vajaatunkeumaisten hitsausliitosten väsymislujuus määritettiin käyttämällä elementtimenetelmää. Suurimman pääjännityksen kriteeriä hyödynnettiin murtumiskäyttäytymisen ennakoimiseksi. Valitulle hitsatulle materiaalille ja koeolosuhteille murtumiskäyttäytymistä mallinnettiin särön kasvunopeudella da/dN ja jännitysintensiteettikertoimen vaihteluvälillä, 'K. Paris:n yhtälön numeerinen integrointi suoritettiin FRANC2D/L tietokoneohjelmalla. Saatujen tulosten perusteella voidaan laskea FAT tutkittavassa tapauksessa. ¿¿th laskettiin alkusärön jännitysintensiteettikertoimen vaihteluvälin ja kynnysjännitysintensiteettikertoimen, 'Kth, perusteella. ¿Kth arvoa pienemmällä vaihteluvälillä särö ei kasva. Analyyseissäoletuksena oli hitsattu jälkikäsittelemätön liitos, jossa oli valmis alkusärö hitsin juuressa. Analyysien tulokset ovat hyödyllisiä suunnittelijoille, jotka tekevät päätöksiä koskien geometrisiä parametreja, joilla on vaikutusta hitsausliitosten väsymislujuuteen.
Resumo:
Tämän tutkimuksen aiheena on tilintarkastuksen historiallinen kehittyminen Suomessa runsaan sadan vuoden aikana. Tutkimuksen tavoitteena on analysoida osakeyhtiön tilintarkastuksen kehitystä ja yhdistää vuosisadan kehityspiirteet tilintarkastuksen kokonaiskuvaksi. Tutkittava periodi alkaa 1800-luvun lopulta ja päättyy 2000-luvun taitteeseen. Tutkimuksessa tarkastellaan suomalaista tilintarkastusinstituutiota, joka jaetaan kolmeen osaan: tilintarkastusta säätelevään normistoon (normit), tilintarkastajajärjestelmään (toimijat) ja tilintarkastuksen sisältöön (tehtävät). Tutkimuksessa tavoitellaan vastauksia kysymyksiin: mitä tarkastettiin, milloin tarkastettiin, kuka tarkasti ja miten tarkastettiin eri aikakausina? Tutkimus perustuu historialliseen lähdeaineistoon, jonka muodostavat tutkimusajanjakson lainsäädäntö, lainvalmisteluasiakirjat, viranomaisten ohjeet ja päätökset, alan järjestöjen suositukset, ammattilehtien artikkelit sekä laskentatoimen ja tilintarkastuksen ammattikirjallisuus. Metodologisesti tutkimus on teoreettinen, kvalitatiivinen historiantutkimus, jossa lähdeaineistoa käsitellään lähdekriittisesti ja osittain sisältöanalyysin keinoin. Tilintarkastusta säätelevässä normistossa keskeisiä lakeja ovat olleet osakeyhtiölaki, kirjanpitolaki ja tilintarkastuslaki. Lakisääteinen tilintarkastus alkoi vuoden 1895 osakeyhtiölaista, joka uudistui vuonna 1978 ja jälleen vuonna 1997. Kirjanpitolainsäädäntö on uudistunut viidesti: 1925 ja 1928, 1945, 1973, 1993 sekä 1997. Vuoden 1994 tilintarkastuslakiin koottiin tilintarkastuksen säädökset useista laeista. Muita normistoja ovat olleet EY:n direktiivit, Kilan ohjeet, KHT-yhdistyksen suositukset, Keskuskauppakamarin säännökset ja viimeisimpinä IAS- ja ISA-standardit. Ammattimainen tilintarkastajajärjestelmä saatiin maahamme kauppiaskokousten ansiosta. Ammattimaisena tilintarkastuksen toimijana aloitti Suomen Tilintarkastajainyhdistys vuonna 1911, ja sen toimintaa jatkoi KHT-yhdistys vuodesta 1925 alkaen. Tilintarkastajien auktorisointi siirtyi Keskuskauppakamarille vuonna 1924. HTM-tilintarkastajat ovat olleet alalla vuodesta 1950 lähtien. Kauppakamarijärjestö on toiminut hyväksyttyjen tilintarkastajien valvojana koko ammattimaisen tilintarkastustoiminnan ajan. Valtion valvontaa suorittaa VALA (Valtion tilintarkastuslautakunta). Koko tutkittavan periodin ajan auktorisoitujen tilintarkastajien rinnalla osakeyhtiöiden tarkastajina ovat toimineet myös maallikot.Tilintarkastuksen tehtäviin kuului vuoden 1895 osakeyhtiölain mukaan hallinnon ja tilien tarkastus. Myöhemmin sisältö täsmentyi tilinpäätöksen, kirjanpidon ja hallinnon tarkastukseksi. Tutkimusajanjakson alussa tilintarkastus oli manuaalista kaikkien tositteiden prikkausta ja virheiden etsimistä. Myöhemmin tarkastus muuttui pistokokeiksi. Kertatarkastuksesta siirryttiin jatkuvaan valvontatarkastukseen 1900-luvun alkupuolella. Dokumentoinnista ja työpapereista alkaa olla havaintoja 1930-luvulta lähtien. Atk-tarkastus yleistyi 1970- ja 1980-luvuilla, jolloin myös riskianalyyseihin alettiin kiinnittää huomiota. Hallinnon tarkastuksen merkitys on kasvanut kaiken aikaa. Tilintarkastuskertomukset olivat tutkimusajanjakson alussa vapaamuotoisia ja sisällöltään ilmaisurikkaita ja kuvailevia. Kertomus muuttui julkiseksi vuoden 1978 osakeyhtiölain myötä. Myöhemmin KHT-yhdistyksen vakiokertomusmallit yhdenmukaistivat ja pelkistivät raportointia. Tutkimuksen perusteella tilintarkastuksen historia voidaan jakaa kolmeen kauteen, jotka ovat tilintarkastusinstituution rakentumisen kausi (1895 - 1950), vakiintumisen kausi (1951 - 1985) ja kansainvälistymisen ja julkisuuden kausi (1986 alkaen). Tutkimusajanjakson jokaisella vuosikymmenellä keskusteltiin jatkuvasti tilintarkastajien riittävyydestä, alalle pääsyn ja tutkintojen vaikeudesta, tilintarkastajien ammattitaidon tasosta,hallinnon tarkastuksen sisällöstä, tilintarkastuskertomuksesta sekä maallikkotarkastajien asemasta. 1990-luvun keskeisimmät keskusteluaiheet olivat konsultointi, riippumattomuus, odotuskuilu sekä tilintarkastuksen taso ja laadunvalvonta. Analysoitaessa tilintarkastuksen muutoksia runsaan sadan vuoden ajalta voidaan todeta, että tilintarkastuksen ydintehtävät eivät juurikaan ole muuttuneet vuosikymmenien kuluessa. Osakeyhtiön tilintarkastus on edelleenkin laillisuustarkastusta. Sen tarkoituksena on yhä kirjanpidon, tilinpäätöksen ja hallinnon tarkastus. Tilintarkastajat valvovat osakkeenomistajien etua ja raportoivat heille tarkastuksen tuloksista. Tilintarkastuksen ulkoinen maailma sen sijaan on muuttunut vuosikymmenten saatossa. Kansainvälistyminen on lisännyt säännösten määrää, odotuksia ja vaatimuksia on nykyisin enemmän, uusi tekniikka mahdollistaa nopean tiedonkulun ja valvonta on lisääntynyt nykypäivää kohti tultaessa. Tilintarkastajan pätevyys perustuu nykyään tietotekniikan, tietojärjestelmien ja yrityksen toimialantuntemukseen. Runsaan sadan vuoden takaisen lain vaarinpitovaatimuksesta on tultu virtuaaliaikaiseen maailmaan!
Resumo:
The purpose of this study was to investigate some important features of granular flows and suspension flows by computational simulation methods. Granular materials have been considered as an independent state ofmatter because of their complex behaviors. They sometimes behave like a solid, sometimes like a fluid, and sometimes can contain both phases in equilibrium. The computer simulation of dense shear granular flows of monodisperse, spherical particles shows that the collisional model of contacts yields the coexistence of solid and fluid phases while the frictional model represents a uniform flow of fluid phase. However, a comparison between the stress signals from the simulations and experiments revealed that the collisional model would result a proper match with the experimental evidences. Although the effect of gravity is found to beimportant in sedimentation of solid part, the stick-slip behavior associated with the collisional model looks more similar to that of experiments. The mathematical formulations based on the kinetic theory have been derived for the moderatesolid volume fractions with the assumption of the homogeneity of flow. In orderto make some simulations which can provide such an ideal flow, the simulation of unbounded granular shear flows was performed. Therefore, the homogeneous flow properties could be achieved in the moderate solid volume fractions. A new algorithm, namely the nonequilibrium approach was introduced to show the features of self-diffusion in the granular flows. Using this algorithm a one way flow can beextracted from the entire flow, which not only provides a straightforward calculation of self-diffusion coefficient but also can qualitatively determine the deviation of self-diffusion from the linear law at some regions nearby the wall inbounded flows. Anyhow, the average lateral self-diffusion coefficient, which was calculated by the aforementioned method, showed a desirable agreement with thepredictions of kinetic theory formulation. In the continuation of computer simulation of shear granular flows, some numerical and theoretical investigations were carried out on mass transfer and particle interactions in particulate flows. In this context, the boundary element method and its combination with the spectral method using the special capabilities of wavelets have been introduced as theefficient numerical methods to solve the governing equations of mass transfer in particulate flows. A theoretical formulation of fluid dispersivity in suspension flows revealed that the fluid dispersivity depends upon the fluid properties and particle parameters as well as the fluid-particle and particle-particle interactions.
Resumo:
En Riegel v. Medtronic Inc. (552 U.S.__2008; February 20, 2008), el Sr. Riegel tuvo que ser sometido a un by-pass como consecuencia de la rotura del catéter, fabricado por Medtronic, con el que su médico le practicaba una angioplastia. A pesar de que el catéter había obtenido la autorización de comercialización de la FDA y cumplía los requisitos de seguridad previstos por el sistema regulatorio federal, el Sr. Riegel y su mujer interpusieron una acción de daños contra Medtronic –y no contra el médico- conforme a las reglas de responsabilidad civil objetiva y por negligencia del Common Law neoyorquino. Sin embargo, el Tribunal Supremo federal de los EE.UU., en ponencia del Magistrado Antonin Gregory Scalia, votó, por mayoría de ocho magistrados, rechazar el recurso de la Sra. Riegel y confirmar la sentencia de segunda instancia, desestimatoria de la demanda, porque consideró que la regla de primacía del derecho regulatorio federal sobre seguridad de productos sanitarios [Medical Device Amendments de 1976, 21 U.S.C. Artículo 360k(a)] excluye la aplicabilidad no sólo del derecho regulatorio estatal sobre seguridad de productos sanitarios, sino también del Common Law sobre responsabilidad civil del fabricante.
Resumo:
It has been convincingly argued that computer simulation modeling differs from traditional science. If we understand simulation modeling as a new way of doing science, the manner in which scientists learn about the world through models must also be considered differently. This article examines how researchers learn about environmental processes through computer simulation modeling. Suggesting a conceptual framework anchored in a performative philosophical approach, we examine two modeling projects undertaken by research teams in England, both aiming to inform flood risk management. One of the modeling teams operated in the research wing of a consultancy firm, the other were university scientists taking part in an interdisciplinary project experimenting with public engagement. We found that in the first context the use of standardized software was critical to the process of improvisation, the obstacles emerging in the process concerned data and were resolved through exploiting affordances for generating, organizing, and combining scientific information in new ways. In the second context, an environmental competency group, obstacles were related to the computer program and affordances emerged in the combination of experience-based knowledge with the scientists' skill enabling a reconfiguration of the mathematical structure of the model, allowing the group to learn about local flooding.
Resumo:
Background: Design of newly engineered microbial strains for biotechnological purposes would greatly benefit from the development of realistic mathematical models for the processes to be optimized. Such models can then be analyzed and, with the development and application of appropriate optimization techniques, one could identify the modifications that need to be made to the organism in order to achieve the desired biotechnological goal. As appropriate models to perform such an analysis are necessarily non-linear and typically non-convex, finding their global optimum is a challenging task. Canonical modeling techniques, such as Generalized Mass Action (GMA) models based on the power-law formalism, offer a possible solution to this problem because they have a mathematical structure that enables the development of specific algorithms for global optimization. Results: Based on the GMA canonical representation, we have developed in previous works a highly efficient optimization algorithm and a set of related strategies for understanding the evolution of adaptive responses in cellular metabolism. Here, we explore the possibility of recasting kinetic non-linear models into an equivalent GMA model, so that global optimization on the recast GMA model can be performed. With this technique, optimization is greatly facilitated and the results are transposable to the original non-linear problem. This procedure is straightforward for a particular class of non-linear models known as Saturable and Cooperative (SC) models that extend the power-law formalism to deal with saturation and cooperativity. Conclusions: Our results show that recasting non-linear kinetic models into GMA models is indeed an appropriate strategy that helps overcoming some of the numerical difficulties that arise during the global optimization task.
Resumo:
Monte Carlo (MC) simulations have been used to study the structure of an intermediate thermal phase of poly(R-octadecyl ç,D-glutamate). This is a comblike poly(ç-peptide) able to adopt a biphasic structure that has been described as a layered arrangement of backbone helical rods immersed in a paraffinic pool of polymethylene side chains. Simulations were performed at two different temperatures (348 and 363 K), both of them above the melting point of the paraffinic phase, using the configurational bias MC algorithm. Results indicate that layers are constituted by a side-by-side packing of 17/5 helices. The organization of the interlayer paraffinic region is described in atomistic terms by examining the torsional angles and the end-to-end distances for the octadecyl side chains. Comparison with previously reported comblike poly(â-peptide)s revealed significant differences in the organization of the alkyl side chains.