26 resultados para Magistério das séries iniciais
Resumo:
O óxido de polifenileno com a marca comercial PPO® é uma das resinas principais produzidas na SABIC IP e o ingrediente principal do plástico de engenharia com a marca registada, Noryl®. A equipa de tecnologia de processo de PPO® desenvolve uma série de novos produtos em reactores de pequena escala, tanto em Selkirk como em Bergen op Zoom. Para se efectuar uma transição rápida da escala laboratorial para a fábrica, é necessário um conhecimento completo do reactor. O objectivo deste projecto consiste em esboçar linhas gerais para o scale-up de novos produtos de PPO1, do laboratório para a escala industrial, baseado no estudo de um tipo de PPO, PPO 803. Este estudo pode ser dividido em duas fases. Numa primeira fase, as receitas e os perfis da reacção são comparados, de onde se retiram as primeiras conclusões. Posteriormente, com base nestas conclusões, é realizado um planeamento experimental. O estudo inicial sugeriu que a receita, a temperatura inicial do reactor e a velocidade do agitador poderiam influenciar o tempo da reacção bem como a queda da velocidade intrínseca do polímero (IV drop). As reacções experimentais mostraram que a receita é o principal factor que influencia, tanto o tempo de reacção, como a queda de viscosidade intrínseca. O tempo de reacção será tanto maior quanto menor a agitação devido à má dispersão do oxigénio na mistura. O uso de temperaturas iniciais elevadas conduz a uma queda maior da viscosidade intrínseca devido à desactivação do catalisador. O método experimental utilizado no laboratório de Bergen op Zoom é um bom exemplo, simulador, do procedimento utilizado na fábrica.
Resumo:
O objectivo desta tese é dimensionar um secador em leito fluidizado para secagem de cereais, nomeadamente, secagem de sementes de trigo. Inicialmente determinaram-se as condições de hidrodinâmica (velocidade de fluidização, TDH, condições mínimas de “slugging”, expansão do leito, dimensionamento do distribuidor e queda de pressão). Com as condições de hidrodinâmica definidas, foi possível estimar as dimensões físicas do secador. Neste ponto, foram realizados estudos relativamente à cinética da secagem e à própria secagem. Foi também estudado o transporte pneumático das sementes. Deste modo, determinaram-se as velocidades necessárias ao transporte pneumático e respectivas quedas de pressão. Por fim, foi realizada uma análise custos para que se soubesse o custo deste sistema de secagem. O estudo da secagem foi feito para uma temperatura de operação de 50ºC, tendo a ressalva que no limite se poderia trabalhar com 60ºC. A velocidade de operação é de 2,43 m/s, a altura do leito fixo é de 0,4 m, a qual sofre uma expansão durante a fluidização, assumindo o valor de 0,79 m. O valor do TDH obtido foi de 1,97 m, que somado à expansão do leito permite obter uma altura total da coluna de 2,76 m. A altura do leito fixo permite retirar o valor do diâmetro que é de 0,52 m. Verifica-se que a altura do leito expandido é inferior à altura mínima de “slugging” (1,20 m), no entanto, a velocidade de operação é superior à velocidade mínima de “slugging” (1,13 m/s). Como só uma das condições mínimas é cumprida, existe a possibilidade da ocorrência de “slugging”. Finalmente, foi necessário dimensionar o distribuidor, que com o diâmetro de orifício de 3 mm, valor inferior ao da partícula (3,48 mm), permite a distruibuição do fluido de secagem na coluna através dos seus 3061 orifícios. O inicio do estudo da secagem centrou-se na determinação do tempo de secagem. Além das duas temperaturas atrás referidas, foram igualmente consideradas duas humidades iniciais para os cereais (21,33% e 18,91%). Temperaturas superiores traduzem-se em tempos de secagem inferiores, paralelamente, teores de humidade inicial inferiores indicam tempos menores. Para a temperatura de 50ºC, os tempos de secagem assumiram os valores de 2,8 horas para a 21,33% de humidade e 2,7 horas para 18,91% de humidade. Foram também tidas em conta três alturas do ano para a captação do ar de secagem, Verão e Inverno representando os extremos, e a Meia- Estação. Para estes três casos, foi possível verificar que a humidade específica do ar não apresenta alterações significativas entre a entrada no secador e a corrente de saída do mesmo equipamento, do mesmo modo que a temperatura de saída pouco difere da de entrada. Este desvio de cerca de 1% para as humidades e para as temperaturas é explicado pela ausência de humidade externa nas sementes e na pouca quantidade de humidade interna. Desta forma, estes desvios de 1% permitem a utilização de uma razão de reciclagem na ordem dos 100% sem que o comportamento da secagem se altere significativamente. O uso de 100% de reciclagem permite uma poupança energética de cerca de 98% no Inverno e na Meia-Estação e de cerca de 93% no Verão. Caso não fosse realizada reciclagem, seria necessário fornecer à corrente de ar cerca de 18,81 kW para elevar a sua temperatura de 20ºC para 50ºC (Meia-Estação), cerca de 24,67 kW para elevar a sua temperatura de 10ºC para 50ºC (Inverno) e na ordem dos 8,90 kW para elevar a sua temperatura dos 35ºC para 50ºC (Verão). No caso do transporte pneumático, existem duas linhas, uma horizontal e uma vertical, logo foi necessário estimar o valor da velocidade das partículas para estes dois casos. Na linha vertical, a velocidade da partícula é cerca de 25,03 m/s e cerca de 35,95 m/s na linha horizontal. O menor valor para a linha vertical prende-se com o facto de nesta zona ter que se vencer a força gravítica. Em ambos os circuitos a velocidade do fluido é cerca de 47,17 m/s. No interior da coluna, a velocidade do fluido tem o valor de 10,90 m/s e a velocidade das partículas é de 1,04 m/s. A queda de pressão total no sistema é cerca de 2408 Pa. A análise de custos ao sistema de secagem indicou que este sistema irá acarretar um custo total (fabrico mais transporte) de cerca de 153035€. Este sistema necessita de electricidade para funcionar, e esta irá acarretar um custo anual de cerca de 7951,4€. Embora este sistema de secagem apresente a possibilidade de se realizar uma razão de reciclagem na ordem dos 100% e também seja possível adaptar o mesmo para diferentes tipos de cereais, e até outros tipos de materiais, desde que possam ser fluidizados, o seu custo impede que a realização deste investimento não seja atractiva, especialmente tendo em consideração que se trata de uma instalação à escala piloto com uma capacidade de 45 kgs.
Resumo:
Tendo em conta a contaminação normal de compostos azotados existente na água de uma piscina, derivados na sua maioria do próprio banhista, é inevitável a formação de subprodutos, quando estes reagem com o cloro como desinfectante. De todos os subprodutos de desinfecção que se formam, as cloraminas, incluídas no controlo químico da água de piscina no parâmetro cloro combinado, são as mais conhecidas. Estes compostos são responsáveis por irritações oculares, das mucosas e do trato respiratório. São estes os compostos responsáveis pelo comummente designado ‘cheiro a cloro’ característico de muitas piscinas. Para além destes efeitos nefastos da sua presença na água, estes compostos possuem um poder desinfectante muito menor ao do ácido hipocloroso, a forma activa do cloro com maior capacidade desinfectante. Por todas estas razões, uma piscina com uma concentração de cloro combinado elevada não é adequada para uso. Com a premissa comprovada em diversos estudos do uso de zeólitos para diminuição de compostos amoniacais por adsorção, é objectivo deste estudo comprovar a sua viabilidade no uso da redução destes compostos nas águas de piscinas. Para tal, foram realizados estudos em contínuo, numa piscina piloto onde foram aplicados hipoclorito de sódio e amoníaco, e ensaios em descontínuo, para que fosse determinada a capacidade e o tempo necessário ao equilíbrio de adsorção para este par adsorvente/adsorvato. Nos ensaios em contínuo, a clinoptilolite adsorveu 1,652 g Cl2/kg de clinoptilolite, em aproximadamente 300 horas de funcionamento, a 23,5 ºC. Nos ensaios em descontínuo, foram estudadas diferentes concentrações iniciais de cloro combinado. Os ensaios foram realizados a 20 ºC. Para uma concentração inicial de 4,06 mg/L Cl2, obteve-se uma capacidade de adsorção de 0,28 g Cl2/kg de clinoptilolite, ao fim de 360 horas. Para uma concentração inicial de 2 mg / L Cl2, o ensaio teve uma duração de 360 horas, e não se verificou estabilização. No entanto, findo este tempo, ocorreu a adsorção de 0,28 g Cl2/kg de clinoptilolite. Para uma concentração inicial de 0,56 mg/L Cl2, obteve-se um valor inferior, de 0,027 g Cl2/kg de clinoptilolite ao fim de 168 horas.
Resumo:
O presente trabalho experimental teve como objectivos estudar a tratabilidade dum efluente lácteo utilizando a técnica de coagulação/floculação e avaliar a possibilidade de utilização do carvão activado granulado (CAG) Aquasorb 2000 como adsorvente para a remoção de compostos orgânicos presentes nos efluentes lácteos pré–tratados por coagulação/floculação, funcionando como um tratamento de polimento. No estudo da tratabilidade do efluente por coagulação/floculação investigou-se a influência de determinadas variáveis como o tipo e dose de coagulante e pH, a fim de encontrar as melhores condições operatórias. A utilização da referida técnica visou a redução do valor de concentração de alguns parâmetros: carência química de oxigénio (CQO); fósforo total e turvação, tendo sido utilizados efluentes desta indústria recolhidos em diferentes datas e após tratamento biológico, designados por A, B, C e D apresentando características diferentes. Sendo que o efluente A apresentava valores de CQO, fósforo total e turvação de 500 mg O2/L;32 mg P/L e 40 NTU respectivamente, o efluente B 1400 mg O2/L; 120 mg P/L e 80 NTU respectivamente, o efluente C 12300 mg O2/L; 87 mg P/L e 350 NTU respectivamente e o efluente D 340 mg O2/L; 33 mg P/L e 42 NTU respectivamente. Os coagulantes estudados foram hidróxido de cálcio (HC), sulfato de alumínio (SA) e tricloreto de ferro (TF). Verificou-se que o coagulante com maior eficácia nos efluentes estudados foi o TF. As maiores remoções de CQO, fósforo total e turvação, 89%, 99,9% e 99%, respectivamente, foram obtidas para o efluente C, com uma dosagem de TF de 4 g/L e com um pH entre 6 e 7. Entre os efluentes estudados este era o que apresentava valores iniciais mais elevados para qualquer um destes parâmetros. As melhores percentagens de remoção obtidas com o HC, para a CQO, fósforo total e turvação foram de 59%, 99% e 91%, respectivamente, com uma dosagem de HC de 1 g/L e com um pH entre 10 e 11,5 foram conseguidas no tratamento do efluente D, com o qual se alcançaram também as melhores remoções de CQO, fósforo total e turvação de 65%, 99% e 87%, respectivamente, quando se utilizou o coagulante SA, com uma dosagem de 2 g/L e com um pH entre 7 e 7,5. Relativamente ao volume de lamas produzido neste processo pela utilização dos diferentes coagulantes no tratamento dos efluentes referidos concluiu-se que o coagulante que gera menor volume de lamas é o HC, sendo o SA aquele que origina um maior volume. Submeteu-se posteriormente o efluente D, pré-tratado por coagulação/floculação, a um processo de adsorção em batch utilizando o CAG Aquasorb 2000, onde se conseguiu uma remoção de CQO de 48%, alcançando para este parâmetro o valor de 63 mg O2/L, nas condições operatórias que correspondem a uma massa de CAG de 12,5 g/L e um tempo de contacto de 3 horas. Quanto aos custos associados com os coagulantes, o que menores custos apresenta é o HC (150 €/ton), seguido pelo TF (250 €/ton) e por ultimo o SA (340 €/ton). Sendo que o efluente quando tratado com TF e SA é necessário uma correcção do pH do meio para que estes coagulantes actuem eficazmente, em que essa correcção de pH é realizada com hidróxido de sódio (540 €/ton). Realizaram-se ainda estudos de equilíbrio de adsorção com o carvão activado referido e o azul-de-metileno usando diferentes concentrações deste (50 mg/L; 100 mg/L e 200 mg/L) e diferentes massas de CAG (0,1g; 0,2g; 0,3g; 0,4g e 0,5g). A temperatura a que se realizaram estes ensaios foi de 28,7ºC e o volume de azul-de-metileno foi de 200 mL. Verificou-se que os melhores resultados obtidos foram para uma concentração de adsorvato de 100 mg/L. Ajustaram-se os modelos de Langmuir e Freundlich às isotérmicas obtidas tendo correlações mais elevadas para a concentração de 100 mg/L de corante (azul de metileno), sendo o modelo de Freundlich aquele que melhor se ajustou apresentando uma correlação quadrática de 0,9744 e os seguintes parâmetros Kf = 6,59 e n = 5,33, enquanto que o de Langmuir apresentou uma correlação quadrática de 0,9583 e os seguintes parâmetros qmáx = 83,3 mg/g de adsorvente e K = 20 L/mg de adsorvato.. Verificou-se que a capacidade de adsorção promovida pelo CAG, em relação ao azul-demetileno, obtida experimentalmente, 83,3 mg/g, é muito inferior à capacidade de adsorção teoricamente prevista pela ficha técnica deste carvão, 280 mg/g a uma temperatura de 25ºC, o que pode indiciar que o carvão utilizado não estaria nas melhores condições.
Resumo:
A cobertura sedimentar da região Oeste portuguesa é constituída por uma série possante de sedimentos com uma variedade de fácies com idades compreendidas entre o Triásico Superior e o actual. Estes sedimentos foram depositados numa bacia alongada com direcção NNE‐SSW. A tectónica desta cobertura sedimentar é condicionada pelas falhas tardi‐Variscas que afectaram o substrato e pelo complexo evaporítico depositado na base das séries sedimentares. Séries evaporíticas espessas de idade Hetangiana formaram numerosas estruturas diapíricas. Na região Oeste de Portugal existem diversas nascentes minerais e termais usadas para hidroterapia. Esta tese tem por objectivo estudar as concessões hidrominerais das Termas dos Cucos e das Termas de Monte Real (Portugal Central), bem como as suas áreas envolventes. Estas actividades hidroterapêuticas são muito relevantes em termos sócio‐económicos para os concelhos de Torres Vedras e Leiria. Os estudos contemplados nesta tese (que incluíram trabalho de campo no domínio da geotectónica, geomorfologia e hidrogeologia) permitiram delinear modelos hidrogeológicos conceptuais, apoiados, ainda, pela re‐interpretação de estudos geofísicos e hidrogeológicos prévios. A caracterização destas áreas foi suportada por inventários hidrogeológicos, tendo sido determinante para o projecto dos furos de captação, incluindo localização e profundidade. Todos os dados compilados foram representados cartograficamente numa base de Sistemas de Informação Geográfica (SIG).
Resumo:
Na sociedade actual, é cada vez mais difícil desassociar o ambiente financeiro do ambiente social, tendo o primeiro influência directa ou indirecta em praticamente todos os aspectos da sociedade. A esta influência está associada a vasta quantidade de informação e serviços financeiros que possibilitam uma melhor compreensão do ambiente socioeconómico actual, permitindo também o estudo das evoluções e das dinâmicas dos mercados financeiros. Este trabalho refere-se ao estudo e comparação de algumas ferramentas disponíveis para a análise dinâmica e tentativa de previsão de alguns índices de bolsa escolhidos. Tais métodos a estudar são modelos clássicos como o Autoregressivo, Média Móvel e o Modelo Misto apresentado por Box e Jenkins. São também propostos dois métodos que tentam distanciar-se dos métodos tradicionais por apenas considerarem para a sua previsão os momentos semelhantes ao momento actual que se tenta prever, ao invés de considerar todo o espectro dos dados disponíveis, tal como os métodos clássicos referidos anteriormente.
Resumo:
Este trabalho pretende avaliar e melhorar o modo de execução da aplicação da técnica de rebentamento com explosivos, aumentando a fragmentação e reduzindo o custo no conjunto das operações de perfuração, carga, detonação e fragmentação secundária e compreender a influência na variação do custo das operações face às melhorias adoptadas. A investigação foi executada na pedreira da Mota-Engil, Engenharia S.A. ‘’ Bouça do Menino’’ Vila Verde, Cervães, tendo os dados iniciais sido recolhidos em 2004 (ano de referência) e comparados com os seguintes 4 anos. A perfuração é geralmente um dos principais factores que influenciam o resultado de um rebentamento, já que do seu rigor pode depender a eficiência do explosivo. Hoje em dia, para além da adequação dos métodos de execução ao local a fragmentar, existem ferramentas que nos permitem visualizar com rigor as circunstâncias em que se desenvolvem os trabalhos, nomeadamente as utilizadas pelos equipamentos de perfuração para controlo de profundidade, inclinação e direcção, a utilização de feixes ‘’laser’’ que nos permitem manter o nivelamento das plataformas, o ‘’laser’’ profile que nos ajuda a definir o posicionamento e inclinação dos furos relativamente à frente livre antes de executar a perfuração, ou ainda, a utilização de equipamentos de registo de coordenadas que nos permitem verificar o posicionamento do furo após a sua execução e decidir sobre a sua utilização mais correcta em função da sua posição. A utilização destas ferramentas associadas a um ‘’software’’ de desenho é ainda uma excelente ferramenta de formação para os operadores da perfuração e utilização dos explosivos, já que permite visualizar e compreender a relação da posição dos furos com o resultado do rebentamento.
Resumo:
A massificação das tecnologias, abrangendo cada vez mais instituições e população em geral, originou uma aproximação da informação e do conhecimento às pessoas, permitindo um novo olhar para esta área, para as novas tecnologias e para o seu uso. Tendo como ponto de partida, a sociedade de informação e o recurso às tecnologias, recursos esses tão patentes actualmente, é possível pensar em criar as condições necessárias para que seja viável evoluir sempre mais, através da imaginação e de ideias criativas. Com base na aproximação das tecnologias que são cada vez mais acessíveis, o presente estudo pretende avaliar se as novas tecnologias, nas suas mais variadas formas, podem ser uma mais valia no ensino de autistas. O autismo começa a ser encarado como um campo a desenvolver estudos e a explorar os conceitos tecnológicos. O estudo aqui apresentado, não pretende ser apenas mais um, mas antes mostrar o trabalho efectuado até à data e o que pode ser realizado, expondo propostas. No sentido de conhecer um pouco melhor os conceitos relacionados com a área do autismo, foi necessário recorrer a pesquisas na Internet, à leitura de livros e a reuniões com pessoas ligadas a essa área, tornando possível uma aquisição de saberes e uma nova visão sobre a temática. Explorados os conceitos iniciais do autismo tornou-se imprescindível a procura dos recursos educativos utilizados nesta área, não só recursos empregados no método tradicional de ensino, como também, os modelos que procuram usar as novas tecnologias. A análise dos recursos existentes permitiu conhecer o panorama actual dos métodos e modelos em uso que conjugado com o levantamento de necessidades efectuado no decorrer deste trabalho, contribuíram para compreender as carências existentes e assim com base nesse conhecimento adquirido efectuar uma proposta de modelo educativo baseado em tecnologias para apoio educativo de autistas.
Resumo:
Nas últimas décadas, o estudo das séries temporais de contagem univariadas tem sido objecto de interesse crescente na literatura. Uma das classes de modelos mais populares é a dos modelos auto-regressivos e médias móveis de valor inteiro não-negativo, INARMA, obtida através da substituição da multiplicação por um operador aleatório, chamado thinning, nos modelos ARMA convencionais. Os modelos INAR para séries de contagem univariadas têm sido amplamente estudados na literatura no que diz respeito quer às suas propriedades probabilísticas quer à inferência estatística. Por outro lado, a classe alargada de modelos de médias móveis para séries de valor inteiro, INMA, em que as operações thinning em instantes diferentes são dependentes entre si, não tem sido objecto de tanta atenção. De facto os modelos INMA não são Markovianos pelo que a inferência estatística apresenta dificuldades adicionais. Actualmente o interesse na análise de séries temporais de contagem centra-se em modelos e métodos para séries multivariadas. Neste trabalho, consideram-se os modelos INMA bivariados propostos por Torres et al. (2012). Nesta classe alargada de modelos bivariados INMA, a estrutura de dependência entre as duas séries temporais é introduzia pela dependência entre os dois processos de chegada enquanto que a dependência em cada série é definida pela dependência de operações thinning em instantes diferentes. Consideram-se estimadores baseados em momentos: método dos momentos (MM), método dos momentos generalizados (GMM) e método dos momentos eficiente (EMM), assim como estimadores baseados na função geradora de probabilidades.
Resumo:
Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.
Resumo:
Na atualidade, está a emergir um novo paradigma de interação, designado por Natural User Interface (NUI) para reconhecimento de gestos produzidos com o corpo do utilizador. O dispositivo de interação Microsoft Kinect foi inicialmente concebido para controlo de videojogos, para a consola Xbox360. Este dispositivo demonstra ser uma aposta viável para explorar outras áreas, como a do apoio ao processo de ensino e de aprendizagem para crianças do ensino básico. O protótipo desenvolvido visa definir um modo de interação baseado no desenho de letras no ar, e realizar a interpretação dos símbolos desenhados, usando os reconhecedores de padrões Kernel Discriminant Analysis (KDA), Support Vector Machines (SVM) e $N. O desenvolvimento deste projeto baseou-se no estudo dos diferentes dispositivos NUI disponíveis no mercado, bibliotecas de desenvolvimento NUI para este tipo de dispositivos e algoritmos de reconhecimento de padrões. Com base nos dois elementos iniciais, foi possível obter uma visão mais concreta de qual o hardware e software disponíveis indicados à persecução do objetivo pretendido. O reconhecimento de padrões constitui um tema bastante extenso e complexo, de modo que foi necessária a seleção de um conjunto limitado deste tipo de algoritmos, realizando os respetivos testes por forma a determinar qual o que melhor se adequava ao objetivo pretendido. Aplicando as mesmas condições aos três algoritmos de reconhecimento de padrões permitiu avaliar as suas capacidades e determinar o $N como o que apresentou maior eficácia no reconhecimento. Por último, tentou-se averiguar a viabilidade do protótipo desenvolvido, tendo sido testado num universo de elementos de duas faixas etárias para determinar a capacidade de adaptação e aprendizagem destes dois grupos. Neste estudo, constatou-se um melhor desempenho inicial ao modo de interação do grupo de idade mais avançada. Contudo, o grupo mais jovem foi revelando uma evolutiva capacidade de adaptação a este modo de interação melhorando progressivamente os resultados.