6 resultados para Informação e tecnologia da computação

em Biblioteca de Teses e Dissertações da USP


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A fim de refletirmos sobre as condições de produção na contemporaneidade, propomos discussões e análises em torno do funcionamento dos recursos de personalização de conteúdos na Internet que impõem filtros aos usuários. Para isso, mobilizamos a teoria de Análise do Discurso de linha francesa, sobretudo a partir dos trabalhos de Michel Pêcheux. Delimitamos a observação do funcionamento de tais recursos no mecanismo de busca do Google, uma vez que ele representa uma das maiores corporações na Internet e detém a maior parte do mercado de buscas. A partir dessa delimitação, selecionamos o corpus de análise oriundo da política de privacidade do buscador, de definições dadas pela empresa sobre o funcionamento de tais recursos e de relatos sobre esse funcionamento postados por usuários e disseminados na rede. Acreditamos que a análise do funcionamento dessas técnicas nos dizem sobre as condições de produção do discurso na contemporaneidade, bem como das materialidades discursivas que lhes são peculiares, compreendendo que é pela influência materialista que se chega, na Análise do Discurso, a noção de materialidade discursiva. Temos, dessa forma, contemplada uma discussão sobre história, sujeito e língua que fundamenta o funcionamento da ideologia. Ainda nesse ínterim, propomos pensar o discurso ressaltando o que concerne à memória, bem como as questões que decorrem ao considerarmos seu funcionamento perpassado pelas Tecnologias de Informação e Comunicação (TIC\'s), o que nos move a refletir sobre o discurso eletrônico e a memória metálica. Tudo isso nos mostra os efeitos discursivos dos filtros que giram em torno do controle na rede, característica que tem marcado as relações de poder no cenário atual.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O processo de desenvolvimento de produto é reconhecido pela literatura como sendo de importância estratégica, mas, apesar disso, existe uma grande dificuldade para se gerenciar este processo, devido a existência de diversas visões parciais sobre sua abrangência e importância, as quais dificultam a integração entre os profissionais que atuam nessa área. No campo de ensino e pesquisa esse fenômeno também ocorre, pois o desenvolvimento de produtos é tratado de maneira incompleta pelas diferentes áreas de conhecimento especializado, criando visões parciais que apresentam linguagem e características próprias, as quais dificultam um entendimento comum dos aspectos desse processo. Para enfrentar esta situação, esse trabalho apresenta a experiência de grupos de pesquisa que formaram uma comunidade de prática em desenvolvimento de produtos, chamada PDPNet (Product Development Process Network), visando minimizar essas visões parciais. Para isso, os membros de tal comunidade envolveram-se no desenvolvimento de iniciativas e atividades conjuntas e têm a sua disposição um portal de conhecimentos para favorecer a sinergia entre os membros, apoiando o ambiente voltado à cooperação e facilitando a troca e criação de conhecimentos, o que é objetivo primordial de uma comunidade de prática. Este trabalho visa relatar e analisar criticamente as características principais da PDPNet, enfocando sua formação, estabelecimento, gestão das iniciativas e atividades para criação de conhecimentos, bem como a tecnologia de informação utilizada. Com esse trabalho, espera-se divulgar essa experiência para o meio acadêmico e empresarial interessado, de forma que suas práticas possam ser propagadas e as dificuldades consideradas. Além disso, espera-se que a análise crítica permita obter subsídios para que seus principais benefícios e dificuldades possam ser identificados e tratados pelos gestores da comunidade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A eficiência da amamentação exige uma complexa coordenação entre sucção, deglutição e respiração, sendo que a tecnologia tem possibilitado importantes avanços na compreensão desse processo. Porém, não foram encontrados vídeos disponíveis na internet que demonstrassem a anatomia e fisiologia da amamentação, de modo didático e fidedigno à ciência atual. Este trabalho teve por objetivo descrever o desenvolvimento de uma sequência em computação gráfica sobre a sucção e a deglutição, resultante da produção digital do Bebê Virtual, bem como validar tal produção quanto ao conteúdo e prover adequações necessárias ao material educacional. Para a produção das iconografias em 3D da sucção e deglutição no Bebê Virtual, inicialmente foi elaborado um mapa conceitual e uma matriz de conteúdos, objetivos e competências voltadas ao material educacional. Posteriormente foi elaborado um roteiro científico que abordou a anatomia do crânio, face, cavidade oral, faringe, laringe e esôfago do recém-nascido, bem como, a descrição dos mecanismos fisiológicos relacionados à sucção e às fases oral e faríngea da deglutição no bebê. Para isso foram utilizadas 14 publicações do período de 1998 a 2008, que continham informações relevantes para demonstrar a amamentação. Os conteúdos teóricos foram organizados em cenas principais, possibilitando a criação de previews das sequências dinâmicas, as quais foram avaliadas por profissionais de anatomia, fonoaudiologia e medicina, possibilitando os ajustes necessários e a construção das imagens em computação gráfica 3D. Para análise da validade de conteúdo dessas imagens foi verificada a representatividade dos itens que o compõe, por meio de consulta à literatura. Foram incluídos estudos que utilizaram auxílio tecnológico e abordaram o tema proposto em bebês a termo e saudáveis, sem alterações neurológicas ou anomalias craniofaciais. Foram excluídas as publicações realizadas com bebês pré-termo, sindrômicos, com anomalias, doenças neurológicas ou qualquer alteração que pudesse interferir na amamentação, revisões de literatura e relatos de caso. Os artigos selecionados foram analisados e classificados quanto ao nível de evidência científica, predominando o nível três de evidência. A análise de conteúdo demonstrou a necessidade de adequações nas iconografias 3D, para que o processo de sucção e deglutição demonstrado no bebê virtual pudesse corresponder ao conhecimento científico atual. Tais adequações foram propostas a partir dos achados de 9 estudos, publicados entre 2008 e 2014, que utilizaram ultrassonografia para demonstrar como ocorre o processo de amamentação. Desta forma, foram modificados os aspectos da pega, da movimentação de língua, mandíbula, palato mole e laringe, além da sincronização da sucção/deglutição/respiração e deslocamento do mamilo, num processo desenvolvido em cinco etapas. Assim, o presente estudo descreveu o processo de desenvolvimento das iconografias em 3D sobre a anatomia e fisiologia da sucção e deglutição no recém-nascido a termo, sendo que a validade de conteúdo permitiu atualizar vários aspectos da amamentação do Bebê Virtual, quebrando velhos paradigmas e possibilitando ilustrar didaticamente as evidências científicas relacionadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A ciência tem feito uso frequente de recursos computacionais para execução de experimentos e processos científicos, que podem ser modelados como workflows que manipulam grandes volumes de dados e executam ações como seleção, análise e visualização desses dados segundo um procedimento determinado. Workflows científicos têm sido usados por cientistas de várias áreas, como astronomia e bioinformática, e tendem a ser computacionalmente intensivos e fortemente voltados à manipulação de grandes volumes de dados, o que requer o uso de plataformas de execução de alto desempenho como grades ou nuvens de computadores. Para execução dos workflows nesse tipo de plataforma é necessário o mapeamento dos recursos computacionais disponíveis para as atividades do workflow, processo conhecido como escalonamento. Plataformas de computação em nuvem têm se mostrado um alternativa viável para a execução de workflows científicos, mas o escalonamento nesse tipo de plataforma geralmente deve considerar restrições específicas como orçamento limitado ou o tipo de recurso computacional a ser utilizado na execução. Nesse contexto, informações como a duração estimada da execução ou limites de tempo e de custo (chamadas aqui de informações de suporte ao escalonamento) são importantes para garantir que o escalonamento seja eficiente e a execução ocorra de forma a atingir os resultados esperados. Este trabalho identifica as informações de suporte que podem ser adicionadas aos modelos de workflows científicos para amparar o escalonamento e a execução eficiente em plataformas de computação em nuvem. É proposta uma classificação dessas informações, e seu uso nos principais Sistemas Gerenciadores de Workflows Científicos (SGWC) é analisado. Para avaliar o impacto do uso das informações no escalonamento foram realizados experimentos utilizando modelos de workflows científicos com diferentes informações de suporte, escalonados com algoritmos que foram adaptados para considerar as informações inseridas. Nos experimentos realizados, observou-se uma redução no custo financeiro de execução do workflow em nuvem de até 59% e redução no makespan chegando a 8,6% se comparados à execução dos mesmos workflows sendo escalonados sem nenhuma informação de suporte disponível.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A área da Tecnologia da Informação no Brasil sofre um problema latente com a falta de planejamento e atrasos constantes em projetos, determinando para os profissionais vinculados a ela um ambiente altamente desmotivador para a condução de seus trabalhos. Supõe-se que o que possa corroborar para tal problema seja a formação educacional deficitária dos indivíduos que atuam neste segmento, principalmente aqueles relacionados a cargos executivos e que estejam exercendo atividades de gestão. De acordo com teóricos como Edgard Morin (2004), em se tratando de educação fundamental, média ou superior os aspectos educacionais podem ser considerados deficitários justamente porque, ao segmentar o conhecimento, eles promovem uma alienação do indivíduo, eliminando sua capacidade criativa e reflexiva. Seria interessante, portanto, que ao avaliar a capacidade cognitiva de uma pessoa, a inteligência a ser mensurada não seja abordada através de um único espectro de conhecimento, mas através de muitos deles. A teoria das Inteligências Múltiplas, desenvolvida por Howard Gardner vem de encontro a essa necessidade, pois de acordo com o autor, a inteligência de um indivíduo deve ser mensurada através de uma gama de nove espectros: Linguística, Musical, Lógico-Matemática, Espacial, Corporal Cinestésica, Interpessoal, Intrapessoal, Naturalista e Existencial. Isto posto, este trabalho aborda uma metodologia computacional para classificação e descoberta de padrões em indivíduos, sejam esses alunos ou profissionais graduados, de uma determinada área. Além da metodologia, foi proposto um estudo de caso, considerando cursos superiores relacionados à área de Computação no Brasil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Um das principais características da tecnologia de virtualização é a Live Migration, que permite que máquinas virtuais sejam movimentadas entre máquinas físicas sem a interrupção da execução. Esta característica habilita a implementação de políticas mais sofisticadas dentro de um ambiente de computação na nuvem, como a otimização de uso de energia elétrica e recursos computacionais. Entretanto, a Live Migration pode impor severa degradação de desempenho nas aplicações das máquinas virtuais e causar diversos impactos na infraestrutura dos provedores de serviço, como congestionamento de rede e máquinas virtuais co-existentes nas máquinas físicas. Diferente de diversos estudos, este estudo considera a carga de trabalho da máquina virtual um importante fator e argumenta que escolhendo o momento adequado para a migração da máquina virtual pode-se reduzir as penalidades impostas pela Live Migration. Este trabalho introduz a Application-aware Live Migration (ALMA), que intercepta as submissões de Live Migration e, baseado na carga de trabalho da aplicação, adia a migração para um momento mais favorável. Os experimentos conduzidos neste trabalho mostraram que a arquitetura reduziu em até 74% o tempo das migrações para os experimentos com benchmarks e em até 67% os experimentos com carga de trabalho real. A transferência de dados causada pela Live Migration foi reduzida em até 62%. Além disso, o presente introduz um modelo que faz a predição do custo da Live Migration para a carga de trabalho e também um algoritmo de migração que não é sensível à utilização de memória da máquina virtual.