975 resultados para Tempo limite de armazenamento
Resumo:
Com a disseminação do uso de Ambientes de Aprendizagem na Web, muitos autores de conteúdo instrucional dedicam seu tempo e se esforçam para desenvolver material de qualidade. Para facilitar o reuso desses materiais, os mesmos estão sendo desenvolvidos como objetos de aprendizagem e são armazenados em repositórios na Web, de onde podem ser pesquisados e recuperados para reuso. Essa pesquisa e recuperação são baseadas nas características dos objetos, ou seja, em seus metadados. Dessa forma, é necessário que os Objetos de Aprendizagem possuam valores de metadados consistentes para que a pesquisa e recuperação sejam eficientes. O desenvolvimento de material instrucional de boa qualidade consome grande quantidade de recursos. A descrição completa destes materiais, ou seja, dos objetos de aprendizagem, não é uma atividade estimulante para os autores que informam apenas um mínimo de metadados. Esta falta de metadados torna muito difícil a recuperação e o reuso dos OA. O objetivo desse trabalho é definir técnicas que recuperem a maior quantidade possível de metadados a partir dos Objetos e Aprendizagem, com a mínima intervenção do usuário, resultando em uma indexação e recuperação eficientes dos Objetos de Aprendizagem Essas técnicas são definidas com base na estrutura e funcionamento do AdaptWeb, que é um ambiente de aprendizagem que disponibiliza material instrucional de forma estruturada e organizada. Assim, é possível fazer uso das informações disponíveis nesse ambiente para recuperar os metadados automaticamente. As técnicas transformam o conteúdo do AdaptWeb em objetos de aprendizagem, sendo capazes de recuperar uma quantidade considerável de metadados. Assim, têm-se Objetos de Aprendizagem devidamente catalogados e armazenados em um repositório, prontos para serem reusados.
Resumo:
Neste trabalho é descrito um método automático para o cálculo das dimensões de caixas, em tempo real, a partir de uma única imagem obtida com projeção perspectiva. Conhecendo a orientação da caixa no espaço tridimensional e sua distância em relação à câmera, as coordenadas 3D de seus vértices podem ser estimadas e suas dimensões calculadas. Na técnica proposta, são utilizados conceitos de geometria projetiva para estimar a orientação espacial da caixa de interesse a partir de sua silhueta. Já a distância da caixa em relação à câmera é estimada por meio da projeção de feixes de laser sobre uma das faces visíveis da caixa. Esta abordagem pode ser aplicada quando duas ou três faces da caixa de interesse são visíveis simultaneamente na imagem, mesmo quando a caixa encontra-se parcialmente oclusa por outros objetos na cena. Entre as contribuições deste trabalho está o desenvolvimento de um eficiente processo de votação para a transformada de Hough, onde os pixels de uma imagem binária são processados em grupos ao invés de individualmente, como ocorre no método convencional. Também é apresentado um modelo estatístico para a remoção de fundo de cena. Nesse modelo, a cor de fundo é representada sob diferentes condições de iluminação por meio da delimitação de uma região no espaço de cores RGB. O modelo proposto não requer parametrização e é próprio para o uso em aplicações que requeiram câmeras móveis. Para a validação das técnicas descritas neste trabalho, foi construído um protótipo de scanner que calcula as dimensões de caixas a partir de imagens em tempo real. Com o auxilio do scanner, foram capturadas imagens e calculadas as dimensões de diversas caixas reais e sintéticas. As caixas sintéticas foram utilizadas em um ambiente controlado para a validação das técnicas propostas Um dos aspectos importantes deste trabalho é a análise da confiabilidade das medidas obtidas por meio da técnica proposta. Com o objetivo de estudar a propagação de erros ao longo do processo de cálculo das medidas, foi aplicado um método analítico baseado na Teoria de Erros. Também são apresentados estudos estatísticos envolvendo medições realizadas com o protótipo. Estes estudos levam em conta a diferença entre as medidas calculadas pelo sistema e as medidas reais das caixas. A análise dos resultados permite concluir que o método proposto é acurado e preciso.
Resumo:
Este estudo objetiva analisar os processos de recuperação judicial iniciados, desde a vigência da Lei de Recuperação de Empresas (fevereiro de 2005) até 31/06/2011 nas varas empresarias da comarca da capital do Tribunal de Justiça do Estado do Rio de Janeiro. Além da aferição do tempo médio de cada uma das etapas previstas na Lei de Recuperação de Empresas (deferimento do processamento da recuperação judicial, concessão da recuperação judicial e encerramento do processo após cumprimento de todas as obrigações previstas no plano que se vencerem até dois anos depois da concessão da recuperação judicial), busco também verificar se, de fato, alguma sociedade requerente conseguiu se recuperar. Para tanto, considerarei recuperada a sociedade que, após o encerramento do processo, estiver cumprindo plenamente o seu plano de recuperação, sem que tenha havido qualquer requerimento posterior de falência. Considerando que a Lei de Recuperação de Empresas já está no seu sétimo ano de vigência, bem como o fato de o legislador ter idealizado o processo para que dure no máximo 3 anos, entendo não haver óbices à adoção do conceito supra, tendo em vista que já haver tempo suficiente para o início e encerramento desse tipo de processo. Diante disso, o presente estudo observou que o tempo médio para cumprimento das etapas ultrapassa o limite do razoável, bem como que nenhuma sociedade conseguiu se recuperar até o desfecho da pesquisa, havendo casos, inclusive, de convolação da recuperação judicial em falência.
Resumo:
O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.
Resumo:
A Doença de Marek é uma enfermidade linfoproliferativa das aves, causada por um alfaherpesvírus e caracterizada pela infiltração de células em nervos periféricos, gônadas, íris, vísceras, músculos e pele. Desde 1970, vacinas atenuadas têm sido utilizadas como ferramenta principal no controle da doença. Esse trabalho descreve a implantação da Reação em Cadeia da Polimerase em Tempo Real (qPCR) para a titulação de vacinas contra o vírus da doença de Marek do sorotipo 3, herpesvírus dos perus (HVT). A qPCR foi comparada com a técnica tradicional de titulação, baseada no cultivo celular de fibroblastos de embrião de galinha. Foram avaliadas três vacinas vivas (congeladas, cepa FC126) provenientes de distintos fabricantes. A técnica molecular apresentou alta correlação entre os valores de threshold cycle (CT) e respectivas diluições das vacinas (R2 = 0,99), indicando que, dentro desta faixa linear testada (102 a 104 PFU/dose), a qPCR foi capaz de quantificar as vacinas disponíveis no mercado. A reprodutibilidade da titulação em cultivo celular e qPCR foi avaliada pela realização dos testes em três dias distintos a partir de ampolas de um mesmo lote da vacina. Os títulos obtidos por ambos os métodos demonstraram alta reprodutibilidade e coerência com o fornecido pelo fabricante. Caracterizou-se também a proporção de vírus livres e associados às células, onde foi observado que, pelo menos, 90% dos vírus encontravamse na forma associada. Este trabalho indicou que a qPCR é reprodutível, rápida e menos trabalhosa do que a titulação em cultivo celular tradicionalmente utilizada.
Resumo:
A presente pesquisa aborda os movimentos desencadeados na instituição escolar com a chegada dos ambientes informatizados nas escolas da rede municipal de Porto Alegre, tendo como interface de investigação as categorias de tempo e de espaço. Problematizo a relação escolarizaçãotecnologia no contexto de um cenário social que emerge na hegemonia tecnológica digital das redes de informação e comunicação, para que se tornem evidentes as configurações de tempo e de espaço forjadas no palco de uma proposta de organização da escola pública municipal que, ao reorganizar tempo e espaço escolares, marca a saída do modelo da escola seriada e a entrada da escola por ciclos de formação e autoriza uma forma de escolarização que coloca de forma oficial a materialidade e os saberes da informática educativa na rede de ensino municipal de Porto Alegre. Sob a lógica de uma perspectiva de investigação histórica e cultural, desnaturaliza-se a inserção da informática no tempo e no espaço ao considerá-la como não-imune aos efeitos do contemporâneo fenômeno de compressão do tempo e do espaço. Percorrendo as diferentes experiências espaço-temporais e as configurações assumidas pela sociedade ocidental, ganham visibilidade formas de escolarização que, num processo histórico, conquistaram legitimidade e produziram a escola pública, gratuita, obrigatória, tecnológica e ajustada às transformações e exigências de um cenário social regido por uma imensa acumulação de espetáculos. Continuidades e descontinuidades marcam a inserção das tecnologias de informação e de comunicação na maquinaria escolar, e o disciplinamento cognitivo e comportamental conquista novos dispositivos. Em um corpus de análise em que se entrelaçam documentos, entrevistas, observações e o complexo e ambivalente fenômeno implementado pela permanente revolução das redes digitais de comunicação e de informação, é que a inserção do saber e da materialidade da Informática na Educação no tempo e no espaço escolares passa a ser tematizada. Como um jogo de cara e coroa que, ao revelar sua face de veneno, tornando mais eficiente o controle individual e coletivo, faz, também, girar a moeda, para que o potencial participativo, socializante e emancipador da rede mundial de computadores aponte para a face do próprio remédio. A partir dessa faceta condicionante e nãodeterminista da relação escolarização-tecnologia, tempos e espaços para colonizar são problematizados a fim de fazer emergir, na mesma intensidade, tempos e espaços para fruir, para deixar espraiar a sensibilidade e a interação humanas, para potencializar o aprendizado e a aquisição dos saberes.
Resumo:
Vivemos em um tempo marcado por incertezas, pela introdução de novas tecnologias na produção, pelo aumento do desemprego e pela precarização do emprego de acordo com vários autores que problematizam as formas como se articulam o trabalho e os modos de viver contemporâneos. A situação atual tem feito com que muitos sujeitos busquem formas alternativas de trabalho nas ruas, intensificando o espaço urbano como local de produção e geração de renda. Apesar destas transformações, trabalho ainda se coloca como dispositivo na sustentação do modo de sujeição capitalista e os discursos em relação ao que é trabalho e quem é um “bom trabalhador” se fazem presentes com uma função estratégica na manutenção do poder. Tendo em vista estes aspectos, analisamos as tensões que se colocam entre o trabalho nas ruas e o trabalho moral, ou seja, o trabalho enquanto substância ética. A questão que orientou nosso estudo foi: de que forma os trabalhadores de rua fazem uma experiência de si considerando os jogos de verdade que definem o que é trabalho? A produção de informações foi realizada a partir de dois modos distintos: 1)entrevistas em profundidade e 2)Fotocomposição. As entrevistas em profundidade foram realizadas no local de trabalho, ou seja, as ruas do centro da cidade de Porto Alegre e seguiram o rumo de uma conversa informal, detendo-se nas questões relativas ao trabalho e a forma como percebem aquilo que fazem. A estratégia da fotocomposição consiste em entregar uma câmera aos sujeitos de pesquisa e solicitar que eles fotografem a partir de um tema ou questão Nossa metodologia pressupõe, em um primeiro momento, levar em conta o contexto de concepção da fotografia, partindo da idéia de que uma fotografia se concebe desde a escolha do seu objeto até a captura da cena, em um processo de construção de sentidos. E, em um segundo momento, de nos determos nas reflexões sobre as fotografias reveladas. Nesta pesquisa a fotocomposição consistiu em solicitar que os trabalhadores mostrassem o seu trabalho através de imagens. A pesquisadora também produziu fotografias ao longo da pesquisa de campo. Através das imagens e das entrevistas, percebemos que os trabalhadores de rua andam sempre no limite entre a lógica dominante e uma outra lógica, incipiente: a lógica da rua, do desemprego, da imposição da realidade sobre a moralidade. E, apesar deles se perceberem como seres “sem função” social, sua função na sociedade é a de continuar existindo para criar novas lógicas, ainda que internas e reservadas a espaços de micropolíticas. Suas lutas cotidianas contra a lógica dominante fazem com que eles produzam não apenas uma nova forma de trabalhar, mas uma nova lógica do trabalho, que se parece cada vez menos com a exceção e cada vez mais com uma nova regra.
Resumo:
O presente trabalho tem o objetivo de explicar a evolução ao longo do tempo dos prêmios pagos por títulos de dívida de empresas não conversíveis em ações entre os anos 2005 e 2012. São utilizadas variáveis específicas das empresas emissoras, como índices de alavancagem, rating da emissão e volume emitido, além de variáveis de sentimento econômico como índices de ações, taxa de juros, índices de inflação e crescimento e taxas pagas por empresas no exterior. Os resultados econométricos indicam que, diferente de estudos feitos em mercados desenvolvidos, as variáveis de taxa de juros não possuem grande relevância na determinação da variação do spread de crédito no Brasil entre 2005 e 2012. No pós-crise de 2008, porém, taxas de juros se mostram relevantes, indicando um possível amadurecimento do mercado brasileiro na direção dos mercados desenvolvidos. Índices de ações e nível de spread de crédito no mercado internacional apresentaram coeficientes estatisticamente relevantes na evolução dos prêmios no mercado brasileiro. Além disso, o mercado parece ser influenciado por tendência, uma vez que alterações de spread em períodos anteriores ajudam a explicar mudanças no período atual.
Resumo:
O objetivo deste trabalho é enfatizar uma das técnicas utilizadas na decisão de "a quem conceder credito": A Análise Discriminante. Esta técnica, utilizando métodos estatísticos, nos permite selecionar entre os nossos clientes aqueles que: representam um baixo risco para a empresa, a quem portanto, será concedido crédito, daqueles que por representarem um alto grau de risco deverão ter seus pedidos de crédito rejeitados, diminuindo consideravelmente, não só a margem de erro, mas também o tempo gasto na tomada de decisão. Quando pensamos em administração de contas a receber, três são os aspectos básicos envolvidos; a otimização do nível de contas a receber, isto é, o investimento ótimo em contas a receber, a política de concessão de crédito, que procura determinar a quem será concedido crédito e qual o limite de crédito a ser concedido, e a Administração de contas a receber propriamente dita, nos seus aspectos de rotina.
Resumo:
Vídeos são dos principais meios de difusão de conhecimento, informação e entretenimento existentes. Todavia, apesar da boa qualidade e da boa aceitação do público, os vídeos atuais ainda restringem o espectador a um único ponto de vista. Atualmente, alguns estudos estão sendo desenvolvidos visando oferecer ao espectador maior liberdade para decidir de onde ele gostaria de assistir a cena. O tipo de vídeo a ser produzido por essas iniciativas tem sido chamado genericamente de vídeo 3D. Esse trabalho propõe uma arquitetura para captura e exibição de vídeos 3D em tempo real utilizando as informações de cor e profundidade da cena, capturadas para cada pixel de cada quadro do vídeo. A informação de profundidade pode ser obtida utilizando-se câmeras 3D, algoritmos de extração de disparidade a partir de estéreo, ou com auxílio de luz estruturada. A partir da informação de profundidade é possível calcular novos pontos de vista da cena utilizando um algoritmo de warping 3D. Devido a não disponibilidade de câmeras 3D durante a realização deste trabalho, a arquitetura proposta foi validada utilizando um ambiente sintético construído usando técnicas de computação gráfica. Este protótipo também foi utilizado para analisar diversos algoritmos de visão computacional que utilizam imagens estereoscópias para a extração da profundidade de cenas em tempo real. O uso de um ambiente controlado permitiu uma análise bastante criteriosa da qualidade dos mapas de profundidade produzidos por estes algoritmos, nos levando a concluir que eles ainda não são apropriados para uso de aplicações que necessitem da captura de vídeo 3D em tempo real.
Resumo:
O presente estudo parte de interrogações sobre o intervalo existente entre o projeto e o trajeto em arte. A idéia que persigo diz respeito à percepção do tempo vivido durante o acontecimento da criação. Tais como pontos de passagem, este tempo refere-se ao "tempo em suspenso", o tempo desterritorializado, que não pode ser medido ou espacializado. Por trabalhar com gravura em metal, tanto na prática de atelier, como na orientação de trabalhos no curso de Artes Visuais da Universidade Federal de Pelotas (UFPEL), interesso-me pela possibilidade de desvendar a proximidade ou distância que possa haver entre o que idealizamos e o que realizamos, ou entre a intenção poética e a criação da obra. As idéias aqui contidas foram influenciadas por Henri Bergson, Gilles Deleuse, André Compte-Sponville, Cecília Salles, Sandra Rey, Nilza Haertel, Edith Derdyk, Ernesto Bonato, Jean Lancri, Jorge Larrosa, Tomaz Tadeu e Marly Meira, entre outros. São abordados aspectos das imagens de tempo que foram sendo construídas, conforme autores dos campos da física, da filosofia e da arte; depois, questões relacionadas à gravura em metal e à "criação em processo". E, no final, estabeleço a interseção destas duas primeiras, na tentativa de encontrar pontos de contato possíveis entre a experiência que temos do tempo nos percursos que se prolongam por substâncias incorporais. Há uma conecção entre os três tempos kronos, aiôn e kairós durante os desacertos a que nos submetemos ao aventurar-nos na experiência da criação, o que nos impõe eternos recomeços.
Resumo:
O objetivo deste trabalho é determinar a existência de comportamento explosivo em preços no mercado brasileiro e identificar quando essas explosões ocorreram. Para tanto, foi utilizada uma nova metodologia recursiva de testes de raiz unitária, que identifica início e fim de explosões de preços em tempo real. Foram escolhidos os índices de mercado (Bovespa ajustado pelo dólar e pelo dividend yield do mercado) e a série de preços IGP-DI (taxa de inflação mensal e acumulada em 12 meses) por apresentarem evidências de comportamento explosivo ao longo do tempo. Os resultados obtidos apontaram a existência de comportamentos explosivos nas séries do Ibovespa ajustado pelo dólar nos anos de 1997, 2006 e 2008 (período anterior à quebra do Banco Lehman Brothers) e na taxa de inflação acumulada em 12 meses nas décadas de 80 e 90, previamente ao Plano Real.
Resumo:
Este estudo visa desenvolver um sistema portátil de radiocomunicação de radiação restrita, indicado para biotelemetria digital de curta distância aplicada ao Teste da Caminhada de Seis Minutos (TC6M) em pacientes com doença pulmonar obstrutiva crônica ou hipertensão pulmonar. A saturação periférica da hemoglobina (SpO2) e a freqüência cardíaca (FC) são monitoradas em tempo real. É utilizada a banda destinada a aplicações médicas, industriais e científicas (ISM), com freqüência de portadora em 916MHz e potência de transmissão de 0,75mW. Este sistema foi projetado para operar através de um enlace half duplex e codificação Manchester NRZ incorporando um protocolo para correção de erros do tipo automatic repeat request error com utilização de um código CRC-16 para detecção de erros. A velocidade máxima de transmissão de dados é de 115.2 kbps. O sistema é constituído de três partes: unidade portátil (Master), unidade estacionária (Slave) e software de visualização em tempo real. A unidade portátil recebe do oxímetro os parâmetros de monitorização que são transmitidos via enlace de rádio-freqüência. A interface da unidade estacionária com o software é feita através da porta de comunicação serial padrão RS-232. Os testes de laboratório e de campo demonstraram que o sistema de biotelemetria é adequado a realizar o TC6M com precisão de SpO2 de ±3 dígitos (com ±1 desvio padrão) e FC de ±3% ambos com taxa de Frame Error Rate < 10-4 (0,01%), sem restrigir os movimentos do usuário durante o processo de monitorização.