58 resultados para Organização e tratamento de dados
Resumo:
Este trabalho analisa o sistema de avaliação do programa de qualidade de uma organização pública, mais especificamente a do Programa de Qualidade da Brigada Militar (PQBM), na visão dos seus próprios avaliadores, tendo a finalidade primordial de contribuir para o aperfeiçoamento do sistema avaliativo. O estudo baseia-se na teoria geral da administração, com ênfase na teoria clássica, na burocrática e na do desenvolvimento organizacional, aplicado às condições e contexto da organização Brigada Militar. Da totalidade dos 83 (oitenta e três) oficiais avaliadores participantes do processo avaliativo do PQBM, 72 (setenta e dois) responderam a um instrumento de levantamento de dados quantitativos, utilizando uma escala tipo Likert, com respostas intervalares de 0 a 4 (de discordo totalmente a concordo totalmente), e dados qualitativos, através de questões abertas. As questões abrangem variáveis de processo (aspectos organizacionais, relativos a método/conteúdo e relativos a recursos), assim como variáveis de resultado (aspectos relativos à estrutura, à atividade humana, à organização e ao meio-ambiente). Os resultados obtidos delineiam a percepção dos avaliadores quanto a mudanças e suas expectativas relativas ao processo avaliativo do PQBM e a capacidade da organização de absorver um novo modelo de gestão sistêmica. Demonstram, ainda, a distância entre o preconizado, quanto ao comportamento administrativo, e a realidade organizacional. Por fim, apresenta-se, através das análises das variáveis causais e das sugestões dos avaliadores, diversas ações para o desenvolvimento de uma gestão sistêmica da qualidade, e sugerem-se estudos mais aprofundados desses aspectos relativos a avaliação.
Resumo:
A presente tese tem como objetivo apresentar e discutir as possíveis relações entre macrotendências de organização do trabalho e possibilidade de crescimento humano em uma empresa de cerâmica de revestimento de Santa Catarina. O interesse pela temática decorre dos reflexos das novas formas organizacionais sobre os que trabalham e o desconhecimento de pesquisas que contemplem a mesma problemática. O método utilizado para articular os objetivos foi o estudo de caso, qualitativo, delineado como exploratório/descritivo, com a coleta de dados primários e secundários A base teórica que deu suporte à tese tratou do contexto do trabalho, das macrotendências organizacionais e da possibilidade de crescimento humano. Para explicitar as macrotendências, apresentaram-se concepções sobre a Qualidade Total, as Empresas Transfuncionais, as Organizações de Aprendizagem, as Organizações Qualificantes, a Reengenharia e as Organizações Cooperativas. Nas possibilidades de crescimento humano foram abordadas a Qualificação, a Carreira, as Competências e o Desenvolvimento Pessoal. Complementou-se com abordagens sobre Subjetividade que questionam a linearidade predominante nos indicadores de crescimento humano. As articulações entre a teoria e o caso estudado mostram que a Qualidade Total é a forma de gestão preponderante na empresa, norteada pela certificação dos produtos. A Aprendizagem Organizacional encontra-se pouco sistematizada e as práticas nessa direção se mostram diferenciadas entre os níveis hierárquicos. As demais macrotendências estudadas são pouco identificadas na gestão da organização. No que tange à possibilidade de crescimento humano, verificou-se que a qualificação está fortemente associada à escolaridade e ao trabalho multifuncional. A carreira é pouco formalizada na empresa e o direcionamento para a gestão por competências deve amenizar as expectativas de ascensão. A possibilidade de desenvolvimento pessoal está relacionada com o desenvolvimento profissional ou o autodesenvolvimento. A análise mostra sujeitos identificados com a idéia da qualidade e que se referem à diversidade que o trabalho engendra atualmente. O referencial que deu suporte ao estudo reforça essa característica, uma vez que a possibilidade de elaboração de um modelo genérico adequado de administração de empresas parece cada vez mais distante.
Resumo:
O presente trabalho enfoca a relação existente entre a utilização do Comércio Eletrônico e a transformação organizacional vista sob seis diferentes perspectivas, quais sejam: perspectivas estratégica, estrutural, tecnológica, humana, cultural e política (poder). Este modelo sugerido por MOTTA (2001) foi adaptado e adotado como norteador da pesquisa. É importante ressaltar que o Comércio Eletrônico foi analisado como agente de mudança dentre do cenário proposto, não é nosso objetivo analisá-lo como objeto fim desta dissertação, apesar de ele desempenhar um papel fundamental dentro da análise como um todo. Para tanto, foi adotada a metodologia de estudo de caso em uma grande empresa do setor automotivo brasileiro tendo como método de análise dos dados o padrão qualitativo. Como instrumento de coleta dos dados, foi elaborada uma entrevista semi-estruturada que permitisse aos respondentes uma maior liberdade em suas respostas, sendo que os dados coletados foram analisados de acordo com os princípios de análise de conteúdo proposto por BARDIN (1979). Ainda, outro objetivo ao qual o trabalho se propôs foi o enquadramento, ou a identificação de um modelo organizacional sob o qual a referida empresa pesquisada baseiase para a realização de seus negócios. Para atingir este objetivo, foi feita uma revisão das teorias organizacionais mais marcantes ao longo da evolução da disciplina de Administração, desde seu surgimento até os dias de hoje. Como resultado da pesquisa, foi possível afirmar que o Comércio Eletrônico gerou mudanças em todas as perspectivas, a única que não sofreu modificação foi a perspectiva do política (poder), a qual manteve-se inalterada com a introdução desta nova contingência dentro do negócio da empresa.
Resumo:
O uso e a análise da informação podem transformar radicalmente os processos produtivos de setores específicos de organizações e de ambientes sociais e econômicos. A presente dissertação propõe-se a realizar um monitoramento de informações com a seleção, sistematização, análise e interpretação de dados e informações para o setor turístico, especialmente para o Circuito Internacional das Missões Jesuíticas (CIMJ), declarado em 1997 pela UNESCO como um dos quatro roteiros históricos internacionais mais importantes do mundo e o primeiro roteiro turístico oficial do Mercosul. Através desse processo, buscou-se a identificação de problemas e a antecipação de oportunidades visando à maior organização do setor turístico selecionado e, consequentemente, à maior competitividade. Os resultados da pesquisa, oriundos da análise comparativa de dados e informações de três rotas turísticas internacionais, permitiram a identificação de variáveis e indicadores para um maior conhecimento de suas posições estratégicas, a validação de uma metodologia para o desenvolvimento de um processo de inteligência competitiva, além de sugerir algumas linhas para a organização estratégica do setor.
Resumo:
O uso da Internet como ferramenta de ensino tem se tornado cada vez mais freqüente. A recente popularização da Internet vem permitindo o desenvolvimento de ambientes de ensino-aprendizagem baseados na Web. Os principais recursos explorados para fins educacionais são hipertexto e hipermídia, que proporcionam uma grande gama de elementos para o instrutor que pretende utilizar a WWW. Este trabalho está inserido no desenvolvimento do ambiente AdaptWeb (Ambiente de Ensino e Aprendizagem Adaptativo para a Web), que visa o desenvolvimento de um ambiente de educação a distância. A arquitetura do ambiente é composta por quatro módulos entre eles o módulo de Armazenamento de dados que armazena todos os dados provenientes da fase de Autoria utilizando XML (Extensible Markup Language). Na etapa de Autoria é feita a inserção de todos os dados relativos a disciplina que deseja disponibilizar, estes dados serão armazenados temporariamente em uma representação matricial em memória. A entrada de dados do módulo de Armazenamento de Dados é esta representação matricial que serve então como base para a geração dos arquivos XML, que são utilizados nas demais etapas do ambiente. Para a validação dos arquivos XML foram desenvolvidas DTD (Document Type Definition) e também foi implementado um analisador de documentos XML, utilizando a API (Application Programming Interface) DOM (Document Object Model), para efetuar a validação sintática destes documentos. Para conversão da representação matricial em memória foi especificado e implementado um algoritmo que funciona em conformidade com as DTD especificadas e com a sintaxe da linguagem XML.
Resumo:
Este trabalho é um estudo sobre agentes inteligentes e suas aplicações na Internet. São apresentados e comparados alguns exemplos de software com funcionalidades para extrair, selecionar e auxiliar no consumo de informações da Internet, com base no perfil de interesse de cada usuário. O objetivo principal deste trabalho é a proposição de um modelo geral e amplo de agente para a obtenção e manutenção de um repositório de links para documentos que satisfaçam o interesse de um ou mais usuários. O modelo proposto baseia-se na obtenção do perfil do usuário a partir de documentos indicados como modelos positivos ou negativos. O ponto forte do modelo são os módulos responsáveis pela extração de informações da Internet, seleção quanto a importância e armazenamento em banco de dados das URLs obtidas, classificadas quanto a usuário, categoria de assunto e assunto. Além disso, o modelo prevê a realização de freqüentes verificações de integridade e pertinência dos links armazenados no repositório. Com base no modelo proposto foi implementado um protótipo parcial. Tal protótipo contempla os módulos responsáveis pela obtenção de informações, seleção das informações pertinentes e classificação e armazenamento dos links de acordo com o assunto. Finalmente, o protótipo implementado permaneceu em execução por um determinado período, gerando alguns resultados preliminares que viabilizaram uma avaliação do modelo.
Resumo:
Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.
Resumo:
Os estudos seminais em Análise da Conversa são originários e estão amplamente difundidos nos Estados Unidos e, assim, grande parte de suas asserções está baseada em estudos feitos com anglo-americanos, mas as descrições da organização do sistema de troca de turnos e do reparo têm a pretensão de serem universais. Então, neste trabalho, analiso ocorrências de uma das trajetórias de reparo – o reparo iniciado e levado a cabo pelo outro – com dados de fala-em-interação em português brasileiro, para verificar se o sistema opera da mesma forma que nos trabalhos seminais. Dentre as trajetórias de reparo, o reparo iniciado e levado a cabo pelo outro – fenômeno muito próximo da correção – é o mais despreferido e, conseqüentemente, mais raro na conversa cotidiana. Isso se dá porque o reparo geralmente se presta para garantir o estabelecimento da compreensão mútua entre os participantes, mas, no caso dessa trajetória, ele é dificilmente justificável nesse sentido, e serve, muitas vezes, como um exercício de controle social sobre o outro. Contudo, essa noção de preferência do reparo dá conta apenas de dados em conversa cotidiana. Na sala de aula tradicional, por exemplo, um ambiente institucional, há uma diferença de status de conhecimento entre os interagentes, as relações são assimétricas, e não se configura a despreferência deste tipo de reparo, pois a correção faz parte do modus operandi desse ambiente. Tendo confirmado a adequação da descrição do sistema de reparo às ocorrências de reparo iniciado e levado a cabo pelo outro em dados de conversa cotidiana em português brasileiro, o estudo concentra a sua análise na descrição da ocorrência do fenômeno em sala de aula, e discute as possíveis implicações político-pedagógicas relacionadas a essa prática tão comum nesse ambiente, mas tão despreferida na conversa cotidiana.
Resumo:
O ambiente de concorrência em que estão inseridas as empresas tem pressionado pela busca constante de novas ferramentas gerenciais. Os hospitais não estão alheios a este desafio e encontram-se em constante transformação ao encontro da excelência assistencial. A existência de um sistema de custos adequado, sendo um instrumento de informação acurado que auxilia na melhoria dos processos internos e nas tomadas de decisão como um todo, apresenta-se como elemento estratégico importante para a competitividade de um hospital. O propósito deste estudo de caso, realizado no primeiro semestre de 2002, foi o de desenvolver e validar um modelo de sistema de custos integrado aos protocolos médicos e rotinas assistenciais da Unidade de Terapia Intensiva (UTI) do Hospital Mãe de Deus de Porto Alegre - RS. O modelo foi matematicamente construído, embasado no método ABC (Actvity-Based Costing) para a alocação dos custos fixos e indiretos, e no método do Custo-Padrão real (corrente) para a alocação dos custos diretos, tendo como pressupostos o custeio dos diversos serviços e a conseqüente promoção de melhorias contínuas e auxílio ao processo decisório como vantagens competitivas nas negociações com fontes pagadoras. O desenvolvimento do modelo deu-se através do mapeamento de dez protocolos aprovados pela Comissão de Ética do hospital e representativos da assistência diversificada da UTI, seguido da alocação dos custos fixos e indiretos com mão-de-obra, depreciação, manutenção e gasoterapia, através do estabelecimento de direcionadores de tempo (mão-de-obra) e intensidade (demais custos), baseados no percentual de participação dos recursos ditados pelos protocolos. Os custos diretos com materiais e medicamentos foram alocados pela média do custo-padrão corrente. A coleta de dados primários, para o estabelecimento dos direcionadores de custos, foi realizada junto à equipe assistencial e utilizou-se medidas estatísticas de localização, dispersão e probabilidade para dar mais confiabilidade às análises. O modelo foi implementado computacionalmente, utilizando-se o software EXCEL da Microsoft. A validação foi dada pela comparação dos resultados entre o modelo desenvolvido e o demonstrativo contábil fornecido pela Controladoria do hospital. Concluiu-se que o modelo desenvolvido de sistema de custos integrado aos protocolos médicos atendeu os objetivos pretendidos, sendo um instrumento gerencial flexível e de fácil implementação, que deve ser utilizado pelo controller do hospital no auxílio ao processo decisório de gestores e da alta administração. Em adição, mostrou-se capaz de embasar tomadas de decisão no longo prazo em relação à capacidade instalada e oportunidades de redimensionamento de quadro de médicos plantonistas e enfermeiros.
Resumo:
O objetivo do presente estudo foi caracterizar suspensões de nanopartículas (NP) de poli(-caprolactona) (PCL) contendo indometacina. Nanocápsulas com fármaco (NC1) foram submetidas a tratamento térmico para verificar se uma relaxação das cadeias poliméricas que recobrem o núcleo pudesse ocorrer. Resultados similares de grau de despolarização da luz espalhada ( c0), determinado por Espalhamento de luz estático, e pH, para as NC que passaram ou não por tratamento térmico, sugeriram que essa relaxação não ocorreu. NC, nanoemulsão (NE) e nanoesfera (NS) apresentaram c0 que caracterizam espécies esféricas. No entanto, a suspensão NC3 (com fármaco em excesso) apresentou valores de c0 que sugeriram a presença de nanocristais de fármaco em suspensão. A partir disto, analisou-se a intensidade de luz espalhada por NC0 (NC sem fármaco), NC1, NC3 e nanodispersões com e sem fármaco (ND1 e ND0, respectivamente). Houve uma queda brusca nas intensidades médias de luz espalhada pela NC3 e ND1 após armazenagem, evidenciada também através da normalização das intensidades pela Razão de Rayleigh. Estes dados, associados à redução do teor de fármaco após armazenagem, apenas para NC3 e ND1, levaram à conclusão de que são formados nanocristais de fármaco durante o preparo destas NP e que estes se depositam ao longo do tempo, reduzindo a intensidade de luz espalhada pelas amostras. Por outro lado, a NC1, quando formulada, não apresentou nanocristais nem houve formação desses após armazenagem Houve grande semelhança entre os espectros de Espalhamento de raios-X a baixo ângulo (SAXS) de NS e ND, atribuída à presença do tensoativo monostearato de sorbitano disperso nestas NP. Este tensoativo não foi identificado em espectros de SAXS de NC e NE. O mesmo perfil de espectro foi obtido para NC contendo diferentes concentrações de PCL, levando à conclusão de que as NC devem manter sua organização em nível molecular independente da concentração de PCL utilizada
Resumo:
Utilizando as técnicas de imunoistoquímica e densitometria óptica, foi investigada a localização e a expressão da proteína c-Fos no SNC do caracol Megalobulimus abbreviatus. Neurônios imunorreativos foram encontrados nos gânglios cerebrais, pedais, parietal direito e visceral de caracóis submetidos ao estímulo térmico aversivo (50oC), e sacrificados em diferentes tempos (3, 6, 12, 18 e 24 h) após a estimulação. A análise da imunorreatividade à c-Fos através do método de medida da densidade óptica (DO) revelou uma diferença significativa no sentido de apresentar uma maior expressão (p<0,05) na área do lobo pedal do pós-cérebro do gânglio cerebral em relação às outras regiões analisadas no mesmo gânglio (mesocérebro, pró-cérebro e lobo pleural do pós-cérebro). Além disso, também houve expressão significativamente maior (p<0,05) quando comparada a densitometria da região do mesocérebro em relação ao lobo pleural do pós-cérebro nos grupos controle, 3h e 18h. O lobo pleural do pós-cérebro apresentou uma expressão significativamente menor (p<0,05) na imunorreatividade da proteína c-Fos quando comparado ao pró-cérebro em animais sacrificados 12h e 24h após e estímulo aversivo. Em relação ao grupo controle, a DO da proteína c-Fos não variou nos diferentes tempos de sacrifício quando comparada a mesma região do gânglio (cerebral, pedal, parietal direito ou visceral) ao longo do tempo na maioria das regiões. A única diferença estatisticamente significativa (p<0,05) foi encontrada no mesocérebro do gânglio de animais sacrificados 12 h após o estímulo térmico aversivo, mostrando uma diminuição da imunorreatividade. Nos animais tratados com salina (1ml) ou morfina (20mg/kg) 15 min antes do estímulo térmico aversivo, os mesmos grupos neuronais nos gânglios do SNC de M. abbreviatus mostraram imunomarcação à proteína c-Fos. Em relação ao grupo controle, observou-se uma expressão significativamente menor (p<0,01) na DO da imunorreatividade da proteína c-Fos nos neurônios anteriores do gânglio pedal nos animais sacrificados 3 h e 6 h após o estímulo térmico aversivo. No momento em que a comparação foi feita entre os grupos salina e morfina de animais sacrificados ao mesmo tempo, na grande maioria dos grupos observou-se uma diminuição na imunorreatividade da proteína c-Fos. Esta diferença, porém, mostrou-se significativa (p<0,01) no mesocérebro de animais do grupo 3h, no lobo pedal do pós cérebro de animais dos grupos 3 h, 6 h e 18 h, nos neurônios anteriores do gânglio pedal nos grupos 6 h e 12 h, nos neurônios mediais do gânglio pedal do grupo 3 h, nos neurônios posteriores do gânglio pedal do grupo 6 h, nos neurônios da região anterior do gânglio parietal direito no grupo 12 h e nos neurônios do gânglio visceral no grupo experimental 12 h. A diferença na DO da proteína c-Fos apresentou uma diminuição extremamente significativa (p<0,001) nos neurônios mediais do gânglio pedal de animais sacrificados 12 h após o estímulo térmico aversivo, nos neurônios posteriores do gânglio pedal dos animais sacrificados 12 h após o estímulo e nos neurônios do gânglio visceral dos animais do grupo experimental 6 h. A partir destes dados e da correlação com estudos realizados em M. abbreviatus para detecção de mediadores químicos envolvidos na nocicepção, podemos concluir que as áreas imunorreativas que apresentaram estas variações na densidade óptica da imunorreatividade à proteína c-Fos em diferentes tempos de sacrifício e tratamento com morfina estão envolvidas no processo nociceptivo neste caracol.
Resumo:
A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.
Resumo:
Este estudo tem como objetivo caracterizar o atendimento pré-hospitalar às vítimas de trauma, decorrente de acidente de trânsito, no município de Porto Alegre, no que se refere à organização do processo de trabalho, identificando a inserção da enfermagem nesse campo. Caracteriza-se como um estudo descritivo exploratório. Os dados foram obtidos por meio de observação participante e entrevista semiestruturada. No processo de análise, utilizou-se uma abordagem dialética, classificando-se o material empírico em estruturas de relevância que, posteriormente foram agrupadas em um núcleo denominado processo de trabalho no atendimento pré-hospitalar. Nesse núcleo, as estruturas de relevância identificadas foram subdivididas em três subnúcleos: a organização tecnológica do trabalho no serviço de atendimento pré-hospitalar, o trabalho coletivo no atendimento às ocorrências de acidente de trânsito e a visão dos atores sobre a inserção da enfermagem no atendimento pré-hospitalar. Constatou-se a centralidade médica na organização do serviço por meio do exercício da regulação médica; entretanto, na organização do trabalho assistencial, que se efetiva no atendimento das ocorrências, a enfermagem tem um papel essencial, pois é responsável pelo atendimento integral ao paciente, em mais de 90% das situações e participa do atendimento no restante das ocorrências, integrando a equipe de suporte avançado. A equipe realiza um trabalho integrado, no qual as relações estabelecidas são horizontais, o que proporciona a realização de ações conjuntas, que garantem um atendimento rápido e adequado. Na relação com os atores das outras áreas, observou-se a realização de um trabalho coletivo, no qual a equipe de saúde assume uma posição central e as demais, 7 realizam suas atividades específicas, em apoio ao trabalho da saúde, configurando um papel periférico. Os dados analisados revelam a relevância do atendimento às vítimas de acidentes de trânsito e o envolvimento da equipe de suporte básico nesse processo de trabalho, indicando a necessidade de aprofundar o conhecimento nessa área, e buscar subsídios para a prevenção desses agravos, a formação e qualificação dos trabalhadores, bem como a estruturação do trabalho baseado na interdisciplinariedade.
Resumo:
A competitividade na área da saúde tem obrigado as empresas a conhecer e entender as necessidades dos seus clientes. Com isto, os hospitais têm buscado um modelo de gestão que traduza as práticas que agregam valor ao cliente. Este trabalho aborda a percepção dos familiares de pacientes com alta da Unidade de Tratamento Intensivo Pediátrico (UTIP) acerca do grau de importância e satisfação de assistência prestada pela equipe da UTIP do Hospital da Criança Santo Antônio (HCSA). Inicialmente, no referncial teórico foi realizada a análise dos conceitos de serviço, de qualidade em serviços, de serviços hospitalares, qualidade e de satisfação do cliente em UTIP. Na pesquisa foi aplicado um questionário descritivo de perfil quantitativo e qualitativo. Na análise dos dados, utilizou-se a matriz importância versus satisfação para determinar os atributos a serem priorizados. Obteve-se a indicação de esforços de melhoria nos seguintes atributos: cumprimento de horários das informações médicas, número de técnicos e auxiliares de enfermagem, rapidez no atendimento médico, atendimento ao acompanhante, limpeza dos ambientes e flexibilidade do atendimento - técnicos e auxiliares de enfermagem. Com base nos resultados obtidos na pesquisa, a autora propõe ações de melhoria para a instituição na visão dos familiares com alta da UTIP do HCSA.
Resumo:
A grande disponibilidade de informações oferece um amplo potencial comercial. Contudo, o enorme volume e diversidade de oportunidades gera um problema: limitações comerciais criadas pela seleção e a manipulação manual dessa informação. O tratamento das grandes bases de dados não estruturadas e/ou semi-estruturadas (BDNE/SE), como as trazidas pela Internet, é uma fonte de conhecimento rica e confiável, permitindo a análise de mercados. O tratamento e a estruturação dessa informação permitirá seu melhor gerenciamento, a realização de consultas e a tomada de decisões, criando diferenciais competitivos de mercado. Pesquisas em Recuperação de Informação (RI), as quais culminaram nesta tese, investem na melhoria da posição competitiva de pequenas e médias empresas, hoje inseridas, pelo comércio eletrônico, em um mercado globalizado, dinâmico e competitivo. O objetivo deste trabalho é o desenvolvimento de uma Metodologia de Extração de Informações para o Tratamento e Manipulação de Informações de Comércio Eletrônico. Chamaremos essa metodologia de EI-MNBC, ou seja, Extração de Informações em Múltiplos Níveis Baseada em Conhecimento. Os usuários da EIMNBC podem rapidamente obter as informações desejadas, frente ao tempo de pesquisa e leitura manual dos dados, ou ao uso de ferramentas automáticas inadequadas. Os problemas de volume, diversidade de formatos de armazenamento, diferentes necessidades de pesquisa das informações, entre outros, serão solucionados. A metodologia EI-MNBC utiliza conhecimentos de RI, combinando tecnologias de Recuperação de Documentos, Extração de Informações e Mineração de Dados em uma abordagem híbrida para o tratamento de BDNE/SE. Propõe-se uma nova forma de integração (múltiplos níveis) e configuração (sistema baseado em conhecimento - SBC) de processos de extração de informações, tratando de forma mais eficaz e eficiente as BDNE/SE usadas em comércio eletrônico. Esse tratamento viabilizará o uso de ferramentas de manipulação de dados estruturados, como Sistemas Gerenciadores de Bancos de Dados, sobre as informações anteriormente desestruturadas. A busca do conhecimento existente em bases de dados textuais não estruturadas demanda a compreensão desses dados. O objetivo é enfatizar os aspectos cognitivos superficiais envolvidos na leitura de um texto, entendendo como as pessoas recuperam as informações e armazenando esse conhecimento em regras que guiarão o processo de extração. A estrutura da metodolo gia EI-MNBC é similar a de um SBC: os módulos de extração (máquinas de inferência) analisam os documentos (eventos) de acordo com o conteúdo das bases de conhecimento, interpretando as regras. O resultado é um arquivo estruturado com as informações extraíd as (conclusões). Usando a EI-MNBC, implementou-se o SE-MNBC (Sistema de Extração de Informações em Múltiplos Níveis Baseado em Conhecimento) que foi aplicado sobre o sistema ETO (Electronic Trading Opportunities). O sistema ETO permite que as empresas negociem através da troca de e-mails e o SE-MNBC extrai as informações relevantes nessas mensagens. A aplicação é estruturada em três fases: análise estrutural dos textos, identificação do assunto (domínio) de cada texto e extração, transformando a informação não estruturada em uma base de dados estruturada.