956 resultados para Molar - Average distances
Resumo:
Référence bibliographique : Rol, 60185
Resumo:
Seven crayfish species from three genera of the subfamily Cambarinae were electrophoretically examined for genetic variation at a total of twenty-six loci. Polymorphism was detected primarily at three loci: Ao-2, Lap, and Pgi. The average heterozygosities over-all loci for each species were found to be very low when compared to most other invertebrate species that have been examined electrophoretically. With the exception of Cambarus bartoni, the interpopulation genetic identities are high within any given species. The average interspecific identities are somewhat lower and the average intergeneric identities are lower still. Populations, species and genera conform to the expected taxonomic progression. The two samples of ~ bartoni show high genetic similarity at only 50 percent of the loci compared. Locus by locus identity comparisons among species yield U-shaped distributions of genetic identities. Construction of a phylogenetic dendrogram using species mean genetic distances values shows that species grouping is in agreement with morphological taxonomy with the exception of the high similarity between Orconectespropinquus and Procambarus pictus. This high similarity suggests the possibility of a regulatory change between the two species. It appears that the low heterozygosities, high interpopulation genetic identities, and taxonomic mispositioning can all be explained on the basis of low mutation rates.
Resumo:
The streams flowing through the Niagara Escarpment are paved by coarse carbonate and sandstone sediments which have originated from the escarpment units and can be traced downstream from their source. Fifty-nine sediment samples were taken from five streams, over distances of 3,000 to 10,000 feet (915 to 3050 m), to determine downstream changes in sediment composition, textural characteristics and sorting. In addition, fluorometric velocity measurements were used in conjunction with measured -discharge and flow records to estimate the frequency of sediment movement. The frequency of sediments of a given lithology changes downstream in direct response to the outcrop position of the formations in the channels. Clasts derived from a single stratigraphic unit usually reach a maximum frequency within the first 1,000 feet (305 m) of transport. Sediments derived from formations at the top of waterfalls reach a modal frequency farther downstream than material originating at the base of waterfalls. Downstream variations in sediment size over the lengths of the study reaches reflect the changes in channel morphology and lithologic composition of the sediment samples. Linear regression analyses indicate that there is a decrease in the axial lengths between the intial and final samples and that the long axis decreases in length more rapidly than the intermediate, while the short axis remains almost constant. Carbonate sediments from coarse-grained, fossiliferous units - iii - are more variable in size than fine-grained dolostones and sandstones. The average sphericity for carbonates and sandstones increases from 0.65 to 0.67, while maximum projection sphericity remains nearly constant with an average value of 0.52. Pebble roundness increases more rapidly than either of the sphericity parameters and the sediments change from subrounded to rounded. The Hjulstrom diagram indicates that the velocities required to initiate transport of sediments with an average intermediate diameter of 10 cm range from 200 cm/s to 300 cm/s (6.6 ft./sec. to 9.8 ft./sec.). From the modal velocitydischarge relations, the flows corresponding to these velocities are greater than 3,500 cfs (99 m3s). These discharges occur less than 0.01 p~r cent (0.4 days) of the time and correspond to a discharge occurring during the spring flood.
Resumo:
Cover title: Tunis's guide to Niagara and traveller's companion, illustrated.
Resumo:
Generation Y is entering the workforce in large numbers and, because this generation holds different values than previous generations, accounting firms are having difficulty managing these new hires. I t is important to determine whether Generation Y is associated with meaningful, long-term trends or i f they will adapt to the given situation. Gen Y' s association with average hours worked per person and average salaries in the Canadian Accounting, Marketing, and Legal professions is examined. I find that an increasing percentage of Generation Y employees in the workforce is associated with significant decreases in average hours worked, but is not associated with any significant trend in average salary. I t is concluded that Generation Y is associated with changing trends in the workplace. These trends are contrary to wha t might be expected under traditional definitions of success, therefore it is postulated that Gen Y may view workplace success differently than previous generations.
Resumo:
The Average White Band's debut album, Show your hand, was released in 1973. The "classic funk and R & B" band included members Alan Gorrie, Owen "Onnie" McIntyre, Malcolm "Mollie" Duncan, Roger Ball, Robbie McIntosh, and Mike Rosen. Rosen was quickly replaced by Hamish Stuart. The band, comprised of Scotsmen, released a second album in 1974 that featured the US number 1/UK Top 10 single "Pick up the Pieces". That same year, Robbie McIntosh died of a heroin overdose and was replaced by Steve Ferrone. The song "Cut the Cake" from their third album made the US top 10, and subsequent releases in the late 1970s and early 1980s proved successful. The members largely pursued individual projects in the years that followed, but re-formed in 1989 (with original members Gorrie, Ball and McIntyre, and new members Alex Ligertwood and Eliot Lewis) and released the album Aftershock. Over the years, the band's members have changed, and the band is currently comprised of Onnie McIntyre, Rocky Bryant, Alan Gorrie, Fred "Freddy V" Vigdor and Klyde Jones. Their most recent album, Times Squared, was released in 2009.
Resumo:
Tesis (Maestría en Ciencias Odontológicas con especialidad en Periodoncia ) U.A.N.L.
Resumo:
Tesis (Maestría en Ciencias Odontológicas con orientación en Ortodoncia) UANL, 2014.
Resumo:
La zeitgesit contemporaine sur la reconnaissance des visages suggère que le processus de reconnaissance reposerait essentiellement sur le traitement des distances entre les attributs internes du visage. Il est toutefois surprenant de noter que cette hypothèse n’a jamais été évaluée directement dans la littérature. Pour ce faire, 515 photographies de visages ont été annotées afin d’évaluer l’information véhiculée par de telles distances. Les résultats obtenus suggèrent que les études précédentes ayant utilisé des modifications de ces distances ont présenté 4 fois plus d’informations que les distances inter-attributs du monde réel. De plus, il semblerait que les observateurs humains utilisent difficilement les distances inter-attributs issues de visages réels pour reconnaître leurs semblables à plusieurs distances de visionnement (pourcentage correct maximal de 65%). Qui plus est, la performance des observateurs est presque parfaitement restaurée lorsque l’information des distances inter-attributs n’est pas utilisable mais que les observateurs peuvent utiliser les autres sources d’information de visages réels. Nous concluons que des indices faciaux autre que les distances inter-attributs tel que la forme des attributs et les propriétés de la peau véhiculent l’information utilisée par le système visuel pour opérer la reconnaissance des visages.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.