973 resultados para Basquetebol - Regras


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução. Conceitos básicos. Processos de classificação e de indução de regras. Experimentando o TMSK e o RIKTEXT. Induzindo regras.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução: O basquetebol é considerado um desporto de alto risco para a ocorrência de lesões, nomeadamente das entorses do tornozelo. Como a história de lesão anterior é um fator de risco para a ocorrência de entroses têm-se desenvolvido estratégias de prevenção para evitar as recidivas, um dos métodos possíveis é o recurso a ligaduras funcionais em “tape”. Objetivo: Neste trabalho vai-se verificar se as ligaduras funcionais em “tape” previnem a recorrência de entorse do tornozelo, numa equipa feminina de basquetebol sub-16. Métodos: A amostra é composta por 9 atletas de basquetebol sub-16 com história de entorse no tornozelo na época precedente, vão-se utilizar ligaduras funcionais no tornozelo. Resultados: A entorse teve 9 registos na época anterior. Não houve registo de qualquer lesão da tibiotársica nos treinos ou jogos, durante a aplicação das ligaduras. Conclusão: A utilização das ligaduras funcionais no grupo estudado, como método de prevenção foi eficaz, não se registando qualquer entorse no decorrer das atividades desportivas (treinos/jogos).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relatório da Prática Profissional Supervisionada Mestrado em Educação Pré-escolar

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabalho de projeto apresentado à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Gestão Estratégica das Relações Públicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO:Artigo que visa colocar as bases de uma verdadeira relação entre a Psicanálise e a Cultura. ABSTRACT: This paper aims to fit the bases of a real relation between Psychoanalysis and Culture.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Acta Assembleia da Republica - Reunião Plenária I Série - Nº 21 - 10 de Dezembro de 2004 IX Legislatura - 3.ª Sessão Legislativa (2004-2005) Reunião Plenária de 09 de Dezembro de 2004 Defesa dos direitos dos cidadãos habilitados com licenciatura em Urbanismo e Planeamento Regional e Urbano; fixação de regras relativas ao acesso e ao exercício da profissão de urbanista

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Orientação : Manuel dos Santos Fonseca ; Co-orientação : António Manuel Gardete Mendes Cabaço

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sabe-se que a fala é a principal maneira de comunicação entre as pessoas. A Síntese de fala (geração automática da fala pelo computador) tem recebido atenção da comunidade acadêmica e profissional por várias décadas. Ela envolve a conversão de um texto de entrada em fala, usando algoritmos e algumas formas de fala codificada. O texto pode ser digitado pelo teclado ou obtido por reconhecimento de caracteres ou, ainda, obtido de um banco de dados. A síntese de fala pode ser usada em vários domínios de aplicação, tais como: auxílio para deficientes visuais, telecomunicações, multimídia, etc. Este trabalho apresenta um estudo sobre a produção da fala e da área de síntese de fala visando servir de subsídio para dissertações e pesquisas futuras, bem como para o Projeto Spoltech, um projeto de cooperação entre os Estados Unidos e o Brasil para o avanço da tecnologia da língua falada no Brasil (Português Brasileiro). Dentro deste estudo serão apresentadas as principais técnicas de síntese de fala, entre as quais destaca-se: Texto para Fala (TPF). Problemas de separação de sílabas, determinação da sílaba tônica, pronunciação das vogais “e” e “o” como um fonema aberto ou fechado, etc, são enfrentados dentro do contexto da área de síntese de fala para o português falado no Brasil. Tendo conhecimento destes problemas, o principal objetivo deste trabalho será criar regras para resolver o problema de pronunciação das vogais “e” e “o” de forma automática, visando obter produção sonora mais inteligível, por intermédio da implementação de um analisador estatístico, o qual verificará a letra anterior e posterior ao “e” ou “o” de uma palavra e, com isso, determinar a pronúncia dos mesmos para aquela seqüência de letras. As mesmas poderão tornar-se regras válidas para a solução do problema se atingirem 80% dos casos de ocorrência no dicionário com fonema “e” ou “o” aberto (limiar), sendo que elas serão lidas por um interpretador Scheme utilizado pelo programa Festival - ferramenta para a construção de sistemas de síntese de fala desenvolvida pelo Centre for Speech Technology Research (University of Edinburgh, Reino Unido), a qual utiliza TPF como método de síntese. Sabendo-se que o Festival gera os fonemas “e” e “o” como fechados se não há uma regra para inferir o contrário, serão consideradas apenas as regras encontradas para os fonemas abertos. Para possibilitar esta análise será utilizado um dicionário eletrônico de pronunciação (com 19.156 palavras), o qual possui a palavra e a sua respectiva pronúncia, conforme pode-se verificar no exemplo do Anexo 1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta dissertação, assumimos os pressupostos formais do modelo não-linear da Fonologia Lexical (FL). Adotamos, como hipótese de trabalho - nos termos de Labov (1981), Labov (1994) e Kiparsky (1988)- a resolução da controvérsia neogramática a partir deste modelo. Para tanto, apresentamos a análise de dois fenômenos do Português Brasileiro (PB), com base em dados empíricos extraídos da cidade de Porto Alegre, os quais confrontamos com as predições que emanam do modelo teórico. Num primeiro momento, discutimos o status lexical e pós-lexical das regras de vocalização de /l/ e monotongação de /ow/. Num segundo momento, apresentamos a caracterização desses dois tipos de mudança. Essas discussões fundamentam-se em resultados estatísticos, obtidos a partir da utilização do pacote VARBRUL. Partindo dessas discussões, propomos o ordenamento dessas regras nos componentes do modelo da Fonologia Lexical (FL), rastreando esses processos nos módulos do léxico e do pós-léxico. A escolha destes dois fenômenos não é aleatória: da análise destas regras nos termos da FL emergem questões não devidamente tratadas no PB, como a opacidade e a presença de regras variáveis no léxico. Também destacamos a controvérsia sobre a representação dos segmentos envolvidos nestes processos: dedicamos um capítulo para a discussão sobre a representação da lateral e do processo de vocalização; e outro para a discussão sobre a representação subjacente do ditongo /ow/. Conforme a análise dos resultados, concluímos que a regra de monotongação de /ow/ comporta-se como regra lexical e implementa um tipo de mudança que se difunde lexicalmente. Já a regra de vocalização de /l/ caracteriza-se como regra pós-lexical e encaixa-se no molde de mudança neogramática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho é dedicado ao estudo e à aplicação da mineração de regras de associação a fim de descobrir padrões de navegação no ambiente Web. As regras de associação são padrões descritivos que representam a probabilidade de um conjunto de itens aparecer em uma transação visto que outro conjunto está presente. Dentre as possibilidades de aplicação da mineração de dados na Web, a mineração do seu uso consiste na extração de regras e padrões que descrevam o perfil dos visitantes aos sites e o seu comportamento navegacional. Neste contexto, alguns trabalhos já foram propostos, contudo diversos pontos foram deixados em aberto por seus autores. O objetivo principal deste trabalho é a apresentação de um modelo para a extração de regras de associação aplicado ao uso da Web. Este modelo, denominado Access Miner, caracteriza-se por enfocar as etapas do processo de descoberta do conhecimento desde a obtenção dos dados até a apresentação das regras obtidas ao analista. Características específicas do domínio foram consideradas, como a estrutura do site, para o pósprocessamento das regras mineradas a fim de selecionar as potencialmente mais interessantes e reduzir a quantidade de regras a serem apreciadas. O projeto possibilitou a implementação de uma ferramenta para a automação das diversas etapas do processo, sendo consideradas, na sua construção, as características de interatividade e iteratividade, necessárias para a descoberta e consolidação do conhecimento. Finalmente, alguns resultados foram obtidos a partir da aplicação desta ferramenta em dois casos, de forma que o modelo proposto pôde ser validado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo dedste trabalho é investigar o projeto de banco de dados aplicado a Sistemas de Informações Geográficas (SIG), mais especificamente, do mapeamento de esquemas conceituais, orientado a objetos, para esquemas lógicos implementados por softwares de SIG comerciais. A transformação dos esquemas conceituais para os lógicos é realizado através da idedntificação de um conjunto de regras genéricas de mapeamento de qualquer esquema concecitual de banco de dados geográficos, baseados em um framework conceitual, para os esquemas lógicos proprietários dos diversos SIG existentes. A concretização desta tarefa de transformação é possível mediante a proposta de um ambiente de suporte. Esse ambiente fornece uma estrutura específica, constituída por uma linguagem formal, definida pelo padrão SAIF (Saptial Archive and Interchange Format), pela ferramenta FME (feature Manipulation Engine) e pela ferramenta CASE Rational Rose v.2000e. O conjunto de regras genéricas elaborado neste trabalho, é composto por dois subconjuntos. O primeiro define regras de correspondência, determinando uma relação entre os conceitos da realidade percebidos pelo Framework conceitual e a linguagem formal apresentada pelo padrão SAIF. O segundo subconjunto define regras de transformação, onde busca-se mapear os conceitos do paradigma da orientação a objetos par aos conceitos relacionais utilizazdos pela maioria dos softwares de SIG, disponíveis no mercado. Com a finalidade de validar a aplicabilidadee deste conjunto de regras de mapeamento e do ambiente de suporte proposto, este trabalho inclui também a implementação de um protótipo, o qual executa a automatização da trasnformação dos esquemas conceituais para os esquemas lógicos de banco de dados geográfico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.