985 resultados para Méthodes à noyaux
Resumo:
Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.
Resumo:
Les élèves faibles en mathématiques utilisent des méthodes de travail inefficaces parce qu'ils n'en connaissent pas d'autres et parce qu'ils manquent de support et d'encadrement lorsqu'ils se retrouvent seuls pour étudier. Ces méthodes de travail inadéquates ont des conséquences néfastes sur leur performance en mathématiques: leur étude étant inefficace, ils persistent moins, arrivent moins bien préparés aux examens et développent des attitudes qui nuisent à leur apprentissage en mathématiques. Le but de cette recherche est de mesurer l'effet de l'enseignement de stratégies cognitives et métacognitives supporté par un encadrement de l'étude individuelle sur les attitudes des élèves faibles et sur leurs comportements lors de l'étude en mathématique. Cet effet devrait entraîner aussi une amélioration du rendement scolaire. L'expérimentation s'est déroulée à l'automne 1989 auprès d'élèves inscrits en mathématiques d'appoint au niveau collégial. On enseigna une méthode de travail plus adéquate, composée de stratégies cognitives et métacognitives variées et adaptées aux tâches demandées dans les devoirs de mathématiques. De plus, dans le groupe expérimental, cet enseignement fut soutenu par des consignes à l'intérieur des devoirs de mathématiques; ces consignes, de moins en moins nombreuses et explicites, devaient assurer que l'élève utilise vraiment les stratégies enseignées. Au terme de l'expérimentation, on a mesuré que les élèves du groupe expérimental n'utilisent pas plus les stratégies enseignées que les élèves du groupe contrôle. On a aussi mesuré la corrélation entre l'utilisation des stratégies enseignées d'une part, et les attitudes, les comportements lors de l'étude et le rendement scolaire d'autre part. On constate que la force de ce lien a tendance à augmenter avec le temps. Même si les résultats ne permettent pas de confirmer l'hypothèse principale, il apparaît que les élèves les plus faibles semblent avoir profité davantage de l'encadrement de leur étude personnelle. De plus, et cela pour l'ensemble des sujets, l'évolution de la corrélation entre l'utilisation des stratégies enseignées et diverses variables reliées à l'apprentissage des mathématiques suggère de poursuivre de telles interventions sur une plus longue période de temps.
Resumo:
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.
Resumo:
Les histoires de l’art et du design ont délaissé, au cours desquatre dernières décennies, l’étude canonique des objets, des artistes/concepteurs et des styles et se sont tournées vers des recherches plus interdisciplinaires. Nous soutenons néanmoins que les historiens et historiennes du design doivent continuer de pousser leur utilisation d’approches puisant dans la culturelle matérielle et la criticalité afin de combler des lacunes dans l’histoire du design et de développer des méthodes et des approches pertinentes pour son étude. Puisant dans notre expérience d’enseignement auprès de la génération des « milléniaux », qui sont portés vers un « design militant », nous offrons des exemples pédagogiques qui ont aidé nos étudiants et étudiantes à assimiler des histoires du design responsables, engagées et réflexives et à comprendre la complexité et la criticalité du design.
Resumo:
This Paper deals with the analysis of liquid limit of soils, an inferential parameter of universal acceptance. It has been undertaken primarily to re-examine one-point methods of determination of liquid limit water contents. It has been shown by basic characteristics of soils and associated physico-chemical factors that critical shear strengths at liquid limit water contents arise out of force field equilibrium and are independent of soil type. This leads to the formation of a scientific base for liquid limit determination by one-point methods, which hitherto was formulated purely on statistical analysis of data. Available methods (Norman, 1959; Karlsson, 1961; Clayton & Jukes, 1978) of one-point liquid limit determination have been critically re-examined. A simple one-point cone penetrometer method of computing liquid limit has been suggested and compared with other methods. Experimental data of Sherwood & Ryley (1970) have been employed for comparison of different cone penetration methods. Results indicate that, apart from mere statistical considerations, one-point methods have a strong scientific base on the uniqueness of modified flow line irrespective of soil type. Normalized flow line is obtained by normalization of water contents by liquid limit values thereby nullifying the effects of surface areas and associated physico-chemical factors that are otherwise reflected in different responses at macrolevel.Cet article traite de l'analyse de la limite de liquidité des sols, paramètre déductif universellement accepté. Cette analyse a été entreprise en premier lieu pour ré-examiner les méthodes à un point destinées à la détermination de la teneur en eau à la limite de liquidité. Il a été démontré par les caractéristiques fondamentales de sols et par des facteurs physico-chimiques associés que les résistances critiques à la rupture au cisaillement pour des teneurs en eau à la limite de liquidité résultent de l'équilibre des champs de forces et sont indépendantes du type de sol concerné. On peut donc constituer une base scientifique pour la détermination de la limite de liquidité par des méthodes à un point lesquelles, jusqu'alors, n'avaient été formulées que sur la base d'une analyse statistique des données. Les méthodes dont on dispose (Norman, 1959; Karlsson, 1961; Clayton & Jukes, 1978) pour la détermination de la limite de liquidité à un point font l'objet d'un ré-examen critique. Une simple méthode d'analyse à un point à l'aide d'un pénétromètre à cône pour le calcul de la limite de liquidité a été suggérée et comparée à d'autres méthodes. Les données expérimentales de Sherwood & Ryley (1970) ont été utilisées en vue de comparer différentes méthodes de pénétration par cône. En plus de considérations d'ordre purement statistque, les résultats montrent que les méthodes de détermination à un point constituent une base scientifique solide en raison du caractère unique de la ligne de courant modifiée, quel que soit le type de sol La ligne de courant normalisée est obtenue par la normalisation de la teneur en eau en faisant appel à des valeurs de limite de liquidité pour, de cette manière, annuler les effets des surfaces et des facteurs physico-chimiques associés qui sans cela se manifesteraient dans les différentes réponses au niveau macro.
Resumo:
Détermination de l'activité du calcium par la méthode d'effusion de Knudsen. Calcul, à partir de la distribution mesurée pour l'aluminium entre l'alliage et du fer pur, de l'activité de l'aluminium dans des alliages riches en calcium. Détermination en combinant les deux méthodes, des activités des deux composants et de l'énergie de Gibbs de mélange pour tout le domaine de composition. Calcul et analyse du facteur de structure concentration-concentration
Resumo:
The Cole-Hopf transformation has been generalized to generate a large class of nonlinear parabolic and hyperbolic equations which are exactly linearizable. These include model equations of exchange processes and turbulence. The methods to solve the corresponding linear equations have also been indicated.La transformation de Cole et de Hopf a été généralisée en vue d'engendrer une classe d'équations nonlinéaires paraboliques et hyperboliques qui peuvent être rendues linéaires de façon exacte. Elles comprennent des équations modèles de procédés d'échange et de turbulence. Les méthodes pour résoudre les équations linéaires correspondantes ont également été indiquées.
Resumo:
Suivant la pression partielle d'oxygène, la zircone peut être conducteur ionique ou électronique. Mise au point de méthodes de mesures de f.é.m. permettant de s'affranchir des sources d'erreur introduites par ces propriétés.
Resumo:
[EN]Conjugated linoleic acid (CLA) has many potential healthful properties, and beef is naturally enriched with CLA. Simple and rapid methods to measure total CLA were investigated to enable sorting of beef carcasses with potential enhanced economic value. Direct alcohol extraction combined with measuring absorbance was simple, accurate and perhaps the most viable method for rapid carcass sorting compared to methods using saponification or methylation followed by extraction.
Resumo:
[EN]Trans fatty acids are found naturally in foods, particularly in those derived from ruminant animals, such as beef and dairy cattle. Over the past few decades, human consumption of trans fatty acids has increased, but this has been mainly from products containing partially hydrogenated vegetable oils. The correlation of trans fatty acid consumption with diseases such as coronary heart disease has been cause for concern, and led to recommendations to reduce their consumption. Trans fatty acids, however, have differing effects on human health. Therefore, in foods produced from ruminant animals, it is important to know their trans fatty acid composition, and how to enrich or deplete fatty acids that have positive or negative health effects. This review will cover the analysis of trans fatty acids in beef, their origin, how to manipulate their concentrations, and give a brief overview of their health effects.
Resumo:
[ES] Junto con formas simples de restitución y compensación, se han detectado variantes de las primeras prácticas de justicia restaurativa en las antiguas civilizaciones de Israel, Sumeria, Babilonia y Roma y entre los pueblos aborígenes de Norteamérica y Oceanía. Por su parte, en el siglo XX, principalmente en respuesta a la ola criminal de los años 60 y 70, y buscando alternativas a los métodos tradicionales de tratamiento de los delitos de esa época, comenzaron a emerger programas experimentales que usaban los principios de justicia restaurativa a comienzos de los 70 en Canadá, Estados Unidos, Inglaterra, Australia y Nueva Zelanda.
Resumo:
[EUS] Lan honen helburua ohiko metodoen zein metodo ez-zuzenekoen bitartez (belaunerainoko altuera antropometroarekin eta zinta metrikoarekin) pertsona helduez osaturiko talde baten altuera zehaztea izan da. Ez-zuzeneko altuera zehaztapenek komunztadura altua erakutsi zuten benetako altuerarekin. Zinta metrikoaren bitartez neurturiko belaunerainoko altuerak komunztadura altuagoa erakutsi zuen benetako altuerarekin, antropometroaren bitartez definiturikoa baino.
Resumo:
Esta tese se propõe a explorar as possibilidades de lidar com o trabalho enquanto atividade, compreendendo-o, a partir da perspectiva ergológica (SCHWARTZ, 2000), portando um paradoxo ou um tipo de dialética entre o Registro 1 das normas antecedentes que marcam fortemente a antecipação desse trabalho; e o Registro 2 das dimensões singulares do encontro de encontros, que se produz em todo trabalhar. A partir da permanente dialética entre esses dois registros, a perspectiva ergológica vai buscar métodos que sejam capazes de dar visibilidade à dimensão gestionária que atravessa todo trabalhar, para que os protagonistas da atividade possam se apropriar de sua atividade, individual e coletivamente, ampliando seus níveis de autonomia frente ao trabalho e à vida. O termo ergo(trans)formação afirma uma prática de pesquisa-intervenção que se propõe transformadora da realidade, apostando numa intervenção micropolítica no seio da experiência social, conforme Rocha e Aguiar (2003). Este modo de compreensão de pesquisa e de afirmação da produção coletiva do conhecimento pauta-se numa abordagem construtivista onde conhecer não é representar uma realidade pré-existente, mas é um processo de invenção de si e do mundo (KASTRUP, 1999), em um acoplamento direto com a matéria. Enfrentamos o seguinte problema: o trabalho pode ser pensado como invenção de si e do mundo, entrando em curto-circuitagem com as formas de produzir em conformidade com organização formal do trabalho, afirmando o primado do agir próprio do trabalhador como atividade, frente ao acontecimental do trabalho? Para dar conta deste problema, propomos desenvolver uma cartografia, enquanto método de análise da atividade de trabalho, que possibilite acompanhar a curto-circuitagem entre as formas de produzir em conformidade com organização do trabalho e o agir próprio do trabalhador. São apresentadas duas experimentações de ergo(trans)formação desenvolvidas em dois territórios distintos dos mundos do trabalho: o desenvolvimento de uma Oficina de Vendas e a formação de educadores internos, em empresa financeira pública e a possibilidade de formação educacional e profissional de jovens com transtorno mental grave em uma rede de restaurantes que se desdobra na cartografia do trabalho coletivo e do coletivo de trabalho, tendo um jovem portador de síndrome de Down como protagonista da atividade. As escolhas metodológicas se fizeram em duas perspectivas distintas e complementares: (1) o método cartográfico elaborado a partir de Deleuze e Guattari (1995), Guattari e Rolnik (1986), assim como Passos, Kastrup e Escóssia (2009); e (2) o que propõe Schwartz (1999), o Dispositivo Dinâmico de Três Polos (DD3P), incorporando a reformulação conceitual proposta por Athayde e Brito (2003) denominada Comunidade Ampliada de Pesquisa. Como conclusão, refletimos se é possível pensar a atividade inventiva de trabalho, a partir das experimentações de ergo(trans)formação que apresentamos, considerando suas condições e efeitos e, mesmo, se podemos nomeá-las assim, levando-se em conta as diferenças de atividades envolvidas. Estas experimentações nos impuseram pensar o trabalho (enquanto atividade) em sua indissociabilidade com a formação humana e com a produção de subjetividade
Resumo:
Esta tese busca explorar as possibilidades contidas do corpo na gestão da atividade de trabalho de motoristas de ambulâncias. Trata-se de uma concepção de corpo, não oponente a alma, que se notabiliza pelo pensamento, pela inteligência, pelo sistema nervoso, pela história: um corpo-si. O diálogo mantido com a perspectiva ergológica, aqui convocada, opera-se a partir da concepção de vida, saúde-doença em George Canguilhem, da contribuição ergonômica, dos referenciais da linguagem e trabalho e da etnografia. Para configuração do campo empírico, adotaram-se métodos e técnicas apropriados de pesquisa em situação concreta de trabalho, denominadas visitas, instrumentalizadas com técnicas de entrevistas dialógicas e observações da atividade, além de uma pesquisa bibliográfica e análise global do trabalho. A pesquisa contou com a participação de motoristas de UTI móvel de uma empresa de transportes de ambulâncias da cidade do Rio de Janeiro. A análise das situações de trabalho foi inspirada na ergonomia da atividade e nas contribuições da perspectiva dialógica. Dentre os resultados obtidos destacamos: problemas de comunicação na relação de trabalho entre motoristas e a Central de Atendimento (Call Center), estado de má conservação e de desconforto das ambulâncias, riscos de doenças no contato com o usuário, insuficiência salarial e atraso no pagamento, indeterminação de pausas durante a jornada, contraintes temporais decorrentes da pilotagem em casos de urgência e emergência, ameaças de multas por excesso de velocidade, além de obstáculos emanados do trânsito: engarrafamentos, barulhos, semáforos, etc. Enfim, um conjunto de variabilidades e infidelidades do meio de trabalho, que permite aos motoristas produzirem novos usos de si, porque mobilizam a integralidade do corpo para chegar a modos operatórios que deem conta dessas situações de trabalho, considerando, sobretudo, a gestão da dinâmica entre as exigências de produtividade e qualidade com saúde, segurança e fiabilidade.
Resumo:
Nas gramáticas tradicionais da língua portuguesa, o estudo sobre a antonomásia, figura de linguagem que designa o processo de passagem de um nome próprio a um nome comum e vice-versa, é visto ora ligado ao conceito de metáfora, ora ligado à relação parte- todo, isto é, à metonímia. Na maioria das vezes, os exemplos mostrados nessas abordagens tradicionais estão descontextualizados, ou seja, não são retirados de um emprego discursivo- dialógico da língua. O principal objetivo desta tese é fazer uma reflexão sobre o potencial semiótico- funcional e cognitivo dos nomes próprios nas antonomásias discursivas, ou seja, aquelas que ainda não estão dicionarizadas, porque são temporárias, e, consequentemente, sua interpretação pertence ao âmbito do processamento discursivo. Tendo como base teórica a teoria dos Espaços Mentais em seu segundo momento, reconhecida como teoria da Integração Conceptual (FAUCONNIER; TURNER, 2002), e a teoria da Iconicidade Verbal, desenvolvida por Simões (2009), baseada nos estudos semióticos de Charles Sanders Peirce, analisar-se-ão, nesta tese, os seguintes aspectos do nome próprio nas antonomásias discursivas: a forma do nome próprio, ou seja, sua plasticidade, que é a característica central da iconicidade diagramática, e a iconicidade isotópica, que age como uma espécie de condutor temático para a formação de sentido de um texto. Esses dois tipos de iconicidade se inserem numa rede mais ampla de signos denominada iconicidade verbal, ou lexical (SIMÕES, 2004), que abrange efeitos tanto de ordem discursiva (discursivização) como de ordem estilística. Assim, ao se conceber o estudo das antonomásias discursivas do nome próprio em uma perspectiva semiótico- discursiva e cognitiva, ter-se-á dado mais um passo nos estudos dos itens lexicais que atuam como organizadores de sentido de um texto