889 resultados para Busca da informação - Modelos
Resumo:
A Tecnologia de Informação (TI) é considerada hoje fator determinante na busca do sucesso empresarial. Entretanto, nem sempre os gestores das organizações têm essa visão como foco estratégico, a fim de, efetivamente, tirarem proveito dos benefícios dessa ferramenta. Supõe-se que especialmente as pequenas empresas, que, por natureza, apresentam fragilidades particulares, apresentam esta característica. Assim, o presente estudo tem como tema central a TI em Pequenas Empresas, objetivando identificar o perfil da TI utilizada em indústrias de pequeno porte da região do Vale do Taquari; verificar com que intensidade um grupo de problemas se manifesta nestas organizações quando adotam novas TI, bem como verificar a ocorrência (ou não) de um conjunto de ações decorrentes, sua intensidade e grau de sucesso. Para tal, utilizou-se o método de pesquisa survey, através de uma pesquisa descritiva de corte transversal. Foram realizadas entrevistas com 36 gestores de TI ou empresários de indústrias de pequeno porte do Vale do Taquari, tendo como base um instrumento originário de uma pesquisa americana (Benamati, Lederer e Singh, 1997), traduzido e adaptado para o contexto brasileiro, testado e validado. Obteve-se como resultado principal o perfil da TI existente nas organizações pesquisadas. Pôde-se concluir que a TI está, de certa forma, ainda incipiente nestas pequenas indústrias, cumprindo, muitas vezes, papel secundário como ferramenta de auxílio na automação de processos internos. Também se verificou que a incidência de problemas decorrentes da adoção de novas TI é pouco percebida nas organizações, sendo manifestado apenas um pequeno número de problemas como relevante, ao passo que diversas ações são tomadas para a resolução dos problemas, normalmente, bem sucedidas.
Resumo:
Este trabalho investiga o impacto da adoção e da implementação de um Sistema Integrado de Gestão em uma empresa do setor elétrico brasileiro, Companhia Estadual de Energia Elétrica – CEEE. Os Sistemas Integrados de Gestão – SIG´s – compõem um novo conceito para a gestão de informação nas organizações. Esses sistemas prometem a integração de todos os fluxos de informações internos e externos a uma organização. A busca da efetiva integração dos negócios levou inúmeras empresas a implementarem os SIG´s. Como a expectativa de resultados é significativa e os investimentos envolvidos são elevados, a avaliação é uma importante etapa da implementação deste tipo de sistema nas empresas. O objetivo do trabalho é avaliar se a implementação do sistema empresarial Synergia trouxe alteração na eficiência operacional da CEEE. O método de avaliação baseou-se em duas dimensões: utilidade e satisfação pelo usuário. Para avaliação da utilidade do sistema, outras três subdimensões foram estabelecidas: a) impacto nos fatores críticos de sucesso da empresa; b) impacto nos processos; c) impacto nos indicadores de desempenho. Com base em um referencial teórico centrado nas características destes sistemas e nos métodos de avaliação que enfatizam as questões mais significativas a serem consideradas na implementação desses projetos, a pesquisa revelou aspectos da implementação e deficiências do software que conduziram ao insucesso do projeto.
Resumo:
A distribuição de recursos públicos de modo equilibrado e bem aplicado é questão de suma importância para administradores públicos e planejadores, especialmente em países como o Brasil que, a cada ano, vê sua capacidade de investimento mais reduzida e onde mais se acentuam os desníveis sociais. A metodologia, aqui empregada, busca incorporar ao modelo a característica de dinamismo própria da realidade regional e por isso permite grande abertura na fase de seleção de variáveis, tratamento dos dados e cálculos de correlações. Descarta de saída a possibilidade de ser resposta única para a questão da regionalização, e sobretudo, visa ser um modelo heurístico que se realimenta via interações, permitindo inúmeras soluções, tanto melhores, quanto mais forem as tentativas de otimização do método. Este trabalho trata da questão da regionalização sob a ótica do estabelecimento de similaridades através de uma análise centrada nos dados sócio-econômicos que guardam melhor correlação com a estrutura espacial, utilizando a técnica de análise de agrupamentos e estatística multivariada, com o fim de facilitar o planejamento regional e munir os administradores públicos com instrumentos de decisão para uma distribuição melhor dimensionada de recursos. O tratamento dos dados se desenvolve a partir de matrizes que relacionam cada objeto unitário com todos os demais, neste caso, cada unidade municipal do estado do Rio Grande do Sul com todos os demais municípios. Utiliza-se o cálculo de variadas formas de distâncias euclidianas e não euclidianas para estabelecer a similaridade entre os objetos, o que é medido através do Teste de Mantel que relaciona as matrizes de dados com a matriz de distância. Posteriormente, via uso de técnicas de análise de agrupamento obtém-se os padrões regionais atrelados à estrutura espacial. As regionalizações geradas pelo método têm a vantagem de apresentarem-se em vários níveis hierárquicos, direcionando-se para uma maior diferenciação à medida que os níveis se aprofundam. Permitem uma visualização dos resultados em qualquer um dos níveis de diferenciação, o que proporciona ampla gama de possibilidades comparativas. Possuem um bom grau de isenção técnica, porque são o resultado de uma análise cujos principais referenciais são de domínio coletivo e definidores do espaço, em que pese o índice de correlação entre as matrizes de distâncias ter sido baixo, para esta partida de dados selecionada e aplicada ao estado do Rio Grande do Sul.
Resumo:
Este trabalho aborda o tema da geração de sistemas supervisórios a partir de modelos orientados a objetos. A motivação para realização do trabalho surgiu com o estudo de sistemas supervisórios e de ferramentas de suporte à modelagem de sistemas usando orientação a objetos. Notou-se que nos primeiros, apesar de possuírem como principal objetivo a visualização de estados e grandezas físicas relacionadas a componentes de plantas industriais (nível de um tanque, temperatura de um gás, por exemplo), os modelos computacionais utilizados baseiam-se em estruturas de dados não hierárquicas, nas quais variáveis de contexto global e não encapsuladas, as chamadas “tags”, são associadas às grandezas físicas a serem visualizadas. Modelos orientados a objeto, por outro lado, constituem uma excelente proposta para a criação de modelos computacionais nos quais a estrutura e semântica dos elementos de modelagem é bastante próxima a de sistemas físicos reais, facilitando a construção e compreensão dos modelos. Assim sendo, a proposta desenvolvida neste trabalho busca agregar as vantagens do uso de orientação a objetos, com conceitos existentes em sistemas supervisórios, a fim de obter-se ferramentas que melhor auxiliem o desenvolvimento de aplicações complexas. Classes e suas instâncias são usadas para modelagem de componentes da planta industrial a ser analisada. Seus atributos e estados são associados às grandezas físicas a serem visualizadas. Diferentes formas de visualização são associadas às classes, aumentando assim o reuso e facilitando o desenvolvimento de sistemas supervisórios de aplicações complexas. A proposta conceitual desenvolvida foi implementada experimentalmente como uma extensão à ferramenta SIMOO-RT, tendo sido denominada de “Supervisory Designer”. A ferramenta desenvolvida estende o modelo de objetos e classes de SIMOO-RT, permitindo a adição de informações específicas para supervisão – tais como as definições de limites para os atributos. A ferramenta foi validada através do desenvolvimento de estudos de casos de aplicações industriais reais, tendo demonstrado diversas vantagens quando comparada com o uso de ferramentas para construção de sistemas supervisórios disponíveis comercialmente).
Resumo:
XML é um padrão da W3C largamente utilizado por vários tipos de aplicações para representação de informação semi-estruturada e troca de dados pela Internet. Com o crescimento do uso de XML e do intercâmbio de informações pela Internet é muito provável que determinadas aplicações necessitem buscar uma mesma informação sobre várias fontes XML relativas a um mesmo domínio de problema. No intuito de representar a informação dessas várias fontes XML, o programador é obrigado a escolher entre muitas estruturas hierárquicas possíveis na criação dos esquemas de seus documentos XML. Um mesmo domínio de informação, desta maneira, pode então ser representado de diferentes formas nas diversas fontes de dados XML existentes. Por outro lado, verifica-se que as linguagens de consulta existentes são fortemente baseadas no conhecimento da estrutura de navegação do documento. Assim, ao consultar uma determinada informação semanticamente equivalente em várias fontes é necessário conhecer todos os esquemas envolvidos e construir consultas individuais para cada uma dessas fontes. Em um ambiente de integração, entretanto, é possível gerar um modelo global que representa essas fontes. Ao construir consultas sobre um modelo global, temos consultas integradas sobre estas fontes. Para se atingir esse objetivo, contudo, devem ser resolvidos os problemas da heterogeneidade de representação dos esquemas XML. Dessa forma, com base em uma abordagem de integração de esquemas, o presente trabalho define a linguagem de consulta CXQuery (Conceptual XQuery) que possibilita a construção de consultas sobre um modelo conceitual. Para possibilitar o retorno dos dados das fontes nas consultas feitas em CXQuery, foi desenvolvido um mecanismo de tradução da linguagem CXQuery para a linguagem de consulta XQuery 1.0. A linguagem XQuery 1.0 é umas das linguagens mais utilizadas para o acesso as fontes XML e permite que os dados possam ser retornados ao usuário. Para possibilitar essa tradução, foi definida uma metodologia de representação da informação de mapeamento através de visões XPath. Essa metodologia é relativamente eficaz no mapeamento das diferentes representações das fontes XML.
Resumo:
A informação é hoje um dos principais recursos nos ambientes de trabalho. A informação compreendida habilita as pessoas e as organizações a atingir seus objetivos e a adquirir conhecimento. Entretanto, pouco se sabe sobre como a informação é utilizada e como os trabalhadores de conhecimento aprendem durante a realização de suas atividades. Entender a natureza do trabalho de conhecimento e torná-lo produtivo é um desafio. Esta pesquisa analisa os modelos conceituais de processo de trabalho de conhecimento encontrados na literatura, que identificam formas de aumentar a produtividade do trabalhador mapeando os estímulos do ambiente externo e observando as atividades realizadas e os resultados produzidos. Entretanto, os modelos dão pouca atenção ao processo cognitivo utilizado pelo trabalhador de conhecimento. Nesta pesquisa, propõe-se a ampliação dos modelos existentes, contemplando a atividade cognitiva no processo e o conhecimento no resultado. A abordagem é baseada na utilização da informação como recurso e como produto. Os objetivos deste trabalho são compreender melhor a forma como é utilizada a informação por trabalhadores de conhecimento e verificar como diferentes níveis de complexidade de informação influenciam o processo de trabalho e os resultados produzidos. Para testar os componentes do modelo proposto, bem como as suas relações, foi realizado um experimento com analistas de investimento que, a partir de um cenário, avaliam uma empresa. Os resultados obtidos revelaram a aderência do modelo conceitual proposto à realidade. Tanto no modelo como na atividade investigada, o processo de trabalho mostrou-se complexo e dinâmico, onde o uso e a produção de informações foi constante. O mapeamento do processo de análise de investimentos identificou o foco do trabalho na capacidade do analista gerenciar as informações e produzir conhecimento. A complexidade das informações foi identificada como um fator de influência sobre o seu uso e sobre o desempenho do analista, mas condicionadas a que essas informações fossem antes interpretadas e percebidas como relevantes.
Resumo:
A gestão do risco de crédito é um tema que vem chamando a atenção dos Administradores, sendo considerado um instrumento gerencial importante no processo competitivo. Este estudo tem como objetivo identificar como as empresas que comercializam eletro-eletrônicos, na cidade de Caxias do Sul, estão procedendo no processo de concessão de crédito aos seus clientes. O estudo descritivo realizado em vinte grupos econômicos que atuam nesse mercado, representando trinta e sete estabelecimentos comerciais, evidenciou alguns problemas nos procedimentos realizados pelas empresas pesquisadas. Como por exemplo, a baixa utilização de sistemas de informação, como apoio ao processo de tomada de decisão. Há pouca aplicação de procedimentos de monitoramento pós-concessão de crédito. Não existe um indicador de inadimplência no segmento pesquisado; as empresas não têm comparativo para verificar seu desempenho. Além disso, poucas empresas possuem indicador de inadimplência, as que possuem calculam de forma similar. Outro fator, refere-se à capacitação dos profissionais responsáveis pela tomada de decisão de crédito. As entrevistas mostraram estas deficiências. As empresas pesquisadas ainda não incorporaram as técnicas de gestão do risco de crédito, desenvolvida pelo setor bancário. Poucas empresas possuem modelos de credit scoring, ou modelos sofisticados, que trabalhem o grande número de variáveis de seus cadastros. Suas decisões estão baseadas nos Cs do crédito, caracterizado pela análise tradicional de crédito, com ênfase no julgamento humano. Através da descrição do processo de concessão de crédito, este estudo procura dar uma visão mais ampla do assunto, evidenciando a implantação de políticas de crédito que explicitem os padrões de concessão; sendo um aliado na busca da redução de riscos que as empresas correm ao conceder crédito a seus clientes.
Resumo:
A justificativa de investimentos em Tecnologia da Informação (TI) é um processo de decisão estratégico. Contudo, muitos tomadores de decisão, dada a complexidade dos problemas, acabam por reduzi-lo a um único critério, normalmente monetário, ou a utilizar critérios mais facilmente mensuráveis, em detrimento daqueles relacionados a possíveis benefícios estratégicos ligados à TI. Esse fato pode ser associado à falta de instrumentos de apoio à decisão com habilidade de capturar todos os múltiplos aspectos envolvidos na justificativa de investimentos em TI. A Pesquisa Operacional pode auxiliar esse processo através do desenvolvimento de modelos multicriteriais, visando contemplar, conjuntamente, os aspectos tangíveis e intangíveis normalmente associados a esse tipo de investimento. Nesse sentido, este trabalho apresenta o desenvolvimento de um modelo de decisão multicriterial para a justificativa de investimentos em TI. A implementação do modelo foi realizada utilizando-se o método AHP (do inglês, “Analytic Hierarchy Process”), através do software Expert Choiceâ. O modelo foi validado através da sua submissão a vinte especialistas da área e através da sua aplicação em problemas de decisão. Os resultados obtidos na validação comprovam a generalidade e o potencial do modelo como ferramenta de decisão para o processo de justificativa de investimentos em TI.
Resumo:
Neste trabalho, estudaremos as possibilidades de existência de assimetria de informação relevante no mercado de seguros de automóveis brasileiro. Mais especificamente, estudaremos a relação entre o nsco empírico dos segurados, supostamente uma informação assimétrica, e sua demanda por cobertura. Utilizando uma extensa e detalhada base de dados, obtida junto a Superintendência de Seguros Privados (SUSEP), implementamos os principais testes econométricos existentes na literatura (paramétricas e semi paramétricas) para verificar a existência de assimetria de informação relevante no mercado de seguros de automóveis brasileiro. Inicialmente, replicamos os testes propostos por Chiappori e Salanié (2000) e Dionne, Gouriéroux e Vanasse (2001) e obtivemos o mesmo resultado: ausência de dependência condicional entre cobertura con tratada e risco empírico. Porém, constatamos que este resultado não é robusto a alterações marginais na metodologia de teste. Em seguida, estudamos uma característica peculiar dos contratos brasileiros: a não-monotonicidade das coberturas. Veremos que segurados mais arriscados terão incentivos em demandar contratos com franquias maiores (e, portanto, com menores coberturas). Após exaustivos testes, constatamos que tal característica inverte, de fato, o sinal da correlação entre cobertura e risco. Por fim, testamos se os prêmios dos contratos de seguro são funções lineares da cobertura. Constatamos que sim. Com isso, concluímos que as seguradoras não utilizam o par prêmio/ cobertura para separar os segurados de acordo com seu nsco (tal como prevê os modelos que consideram a existência de seleção adversa nesse mercado). Os resultados obtidos neste trabalho sugerem que, no mínimo, não devemos ignorar a possibilidade de existência de assimetria de informação relevante no mercado segurador brasileiro. Sendo assim, sugerimos que o apreçamento do risco nos contratos de seguro não deva se valer apenas de ferramentas atuariais, tal como é feito atualmente, mas deve considerar também os incentivos implícitos que os contratos de seguro exercem sobre o comportamento (arriscado) dos segurados.
Resumo:
A questão que queremos discutir ê a seguinte: po deriam as corretoras e os próprios investidores desinformados, minimizar o efeito das informações privilegiadas no mercado? Este aspecto é enfocado no trabalho através da apresentação de 4 modelos de expectativas racionais.
Resumo:
A motivação deste trabalho é relacionar a teoria da estatística com uma clássica aplicação prática na indústria, mais especificamente no mercado financeiro brasileiro. Com o avanço de hardware, sistemas de suporte à decisão se tornaram viáveis e desempenham hoje papel fundamental em muitas áreas de interesse como logística, gestão de carteiras de ativos, risco de mercado e risco de crédito. O presente trabalho tem como objetivos principais propor uma metodologia de construção de modelos de escoragem de crédito e mostrar uma aplicação prática em operações de empréstimo pessoal com pagamento em cheques. A parte empírica utiliza dados reais de instituição financeira e duas metodologias estatísticas, análise de regressão linear múltipla e análise de regressão probit. São comparados os resultados obtidos a partir da aplicação de modelos de escoragem de crédito desenvolvidos com cada metodologia com os resultados obtidos sem a utilização de modelos. Assim, demonstra-se o incremento de resultado da utilização de modelos de escoragem e conclui-se se há ou não diferenças significativas entre a utilização de cada metodologia. A metodologia de construção de modelos de escoragem é composta basicamente por duas etapas, definição das relações e da equação para cálculo do escore e a definição do ponto de corte. A primeira consiste em uma busca por relações entre as variáveis cadastrais e de comportamento do cliente, variáveis da operação e o risco de crédito caracterizado pela inadimplência. A segunda indica o ponto em que o risco deixa de ser interessante e o resultado esperado da operação passa a ser negativo. Ambas as etapas são descritas com detalhes e exemplificadas no caso de empréstimos pessoais no Brasil. A comparação entre as duas metodologias, regressão linear e regressão probit, realizada no caso de empréstimos pessoais, considerou dois aspectos principais dos modelos desenvolvidos, a performance estatística medida pelo indicador K-S e o resultado incremental gerado pela aplicação do modelo. Foram obtidos resultados similares com ambas as metodologias, o que leva à conclusão de que a discussão de qual das duas metodologias utilizar é secundária e que se deve tratar a gestão do modelo com maior profundidade.
Resumo:
Atualmente, o leilão de espectro tem sido evento de considerável relevância para o mercado de telecomunicações. As cifras alcançadas nos leilões, a oportunidade que eles representam para as empresas interessadas em explorar o mercado de telecomunicações, e o interesse do governo em alocar de forma eficiente este recurso, trouxeram notoriedade e magnitude para este mecanismo de seleção. Com o advento de novas tecnologias de comunicação móvel, detentoras de características inovadoras que permitem preencher cada vez mais a cesta de necessidades do consumidor, e a partir da alocação destas tecnologias a distintas faixas de espectro, tornou-se necessário, a determinação do mecanismo de escolha mais adequado daquele que será o gestor do recurso que permitirá a oferta desses serviços ao mercado: o espectro de freqüência. Com o intuito de se avaliar esse cenário, e os distintos papéis de seus participantes, busca-se nesse trabalho, através da análise do mais recente conjunto de leilões realizados para alocação deste recurso, o leilão das licenças 3G na Europa, compreender os pormenores envolvidos desde a elaboração até o desfecho deste processo. Objetiva-se, por fim, enriquecer o debate sobre esse tema ao discutir-se o cenário brasileiro. O trabalho ao analisar os leilões europeus nos permite identificar que as regras do leilão, como comentado por diversos autores, não são diretamente transplantáveis entre diferentes ambientes. Afinal dentro do ambiente homogêneo caracterizado pelo continente europeu, apesar da semelhança entre os diversos modelos de leilão utilizados, o sucesso obtido em países como Reino Unido e Alemanha, não foi repassado aos demais, ao compararmos o preço pago per capta. Entretanto, o espectro tem seu valor altamente conectado à disponibilidade tecnológica de sua utilização, logo, espectro sem tecnologia adequada para seu uso é observado como de valor privado aproximadamente zero pelos participantes. Esse fenômeno foi caracterizado pelo baixo valor atribuído ao espectro não pareado. Apesar de valor ser relativamente nulo, não é zero, pois a aquisição do direito de uso do espectro pode representar um "hedge" para ser utilizado, senão hoje, quando a tecnologia estiver disponível. Porém sendo o espectro recurso escasso, a alocação deste para tecnologia ainda indisponível pode ser considerado ineficiente. Observa-se, também, que o "incumbent" tende a valorizar mais uma licença, porém não se conseguiu determinar se isso ocorre devido a maior quantidade de informação que este detém sobre o mercado, ou devido à tentativa de manter o "status quo" do oligopólio atual. Baseado no comentado anteriormente e nos resultados dos leilões torna-se evidente que caso o entrante não seja protegido, como o "incumbent" valoriza mais a licença este sempre pagará mais por esta. E caso, o entrante tenha esta certeza, este não virá participar do leilão, o que na maior parte dos casos inviabilizaria o leilão pois haveriam tantas licenças quanto participantes. Ao analisar-se o caso brasileiro identifica-se a presença de um jogo nacional e um subjogo regional, onde os participantes podem ser simultaneamente "incumbents" para uma região, porém entrantes em outra.
Resumo:
O uso de Tecnologia da Informação (TI) tem evoluído muito nos últimos anos e isto influencia, sem dúvida, o ensino e a prática da arquitetura. Observa-se que o ensino de projeto nas escolas de arquitetura se dá através de um processo prático-reflexivo, no qual os alunos aprendem fazendo, sob a orientação dos professores. O conhecimento arquitetônico, portanto, vai sendo construído através da análise e interpretação do projeto e a busca de significados a partir da sua representação, sejam esboços à mão livre ou imagens digitais. Desta forma, as disciplinas de prática projetual têm grande importância, sendo consideradas fundamentais para a formação do arquiteto. Reconhecendo que a aplicação da TI gera novos paradigmas projetuais, mostrou-se importante a investigação da docência e da prática profissional. Este trabalho tem por objetivo caracterizar a presença e o uso de TI no ensino de projeto arquitetônico nas Faculdades de Arquitetura e Urbanismo (FAU) de Porto Alegre, RS. Demonstra-se, através dos resultados de estudo exploratório em quatro FAUs, as características pessoais e a forma como estão sendo desenvolvidas as habilidades dos alunos para a prática de projeto arquitetônico em função das tecnologias disponíveis e das tendências futuras que se apresentam a estes profissionais. Verificou-se como os estudantes usam recursos computacionais em geral, qual o seu o nível de conhecimento sobre TI e como tem sido feita a abordagem pelas FAUs deste tema. Explorou-se, de forma especial, a aplicação de sistemas CAD no processo de projeto arquitetônico Constatou-se que os sistemas ainda são bastante sub utilizados e que as disciplinas dos currículos das FAUs estudadas levam a uma formação aquém da necessidade exigida pelos escritórios de arquitetura, onde o uso de recursos computacionais é corrente. Para estarem adequados as exigências do mercado de trabalho, os estudantes além de completarem o seu Curso, necessitam superar a necessidade de aprendizagem de sistemas computacionais, muitas vezes adquirida durante o estágio ou em cursos extra-curriculares.
Resumo:
A competitividade incremental que vem sendo requerida das empresas tem exigido um processo de gestão ágil e inteligente, no qual uma eficiente gestão da informação é crucial à sobrevivência das organizações. A adoção e implementação de sistemas informacionais, não poucas vezes, tem levado ao desperdício e à frustração pela inobservância de determinados empecilhos que podem não ser detectados quando da tomada de decisão em implantar um sistema. O presente estudo tem por objetivo identificar fatores sociais, técnicos, e financeiros, inibidores à adoção de Tecnologia da Informação avançadas, por parte das pequenas e médias empresas das Micro-Regiões da AMPLASC1 e AMMOC2. O método foi um estudo exploratório de corte transversal, onde, através de survey realizada junto a 62 empresas busca-se levantar as características da população pesquisada. O instrumento de coleta de dados composto de 83 questões foi dividido em quatro partes: a) identificação do respondente e da organização; b) identificando a TI; c) identificação dos fatores técnicos inibidores; e d) identificação dos fatores sócio-culturais inibidores. A análise dos dados foi realizada primeiramente considerando a amostra total, depois quando as organizações eram estratificadas em Pequena e Média empresa, e, finalmente, quando estas organizações eram estratificadas pelo ramo de atividade (Comércio, Industria, e Serviço), demonstrando como os fatores mencionados na literatura mundial são entendidos como com potencialidade inibidoras pelas organizações da região em estudo. Pelos resultados da presente pesquisa é possível concluir que as empresas possuem uma infraestrutura em TI satisfatória aos usuários, que consideram, em sua grande maioria, suficiente os recursos de hardware e software disponibilizados pelas organizações para realização das suas atividades. Apesar disso, é possível verificar que a situação não é totalmente confortável. Isto é, ainda que os respondentes tenham considerado que a infraestrutura em TI seja suficiente, existem alguns fatores que dificultam uma utilização mais adequada das TIs. Conclui demonstrando que alguns fatores precisam ser trabalhados para que a gestão da informação possa trazer a eficiência, eficácia e efetividade as organizações da região do estudo.
A reconstrução da realidade com a informação digital : a emergência da dupla competência sociológica
Resumo:
As possibilidades das metodologias informacionais para a Sociologia tornam-se problemáticas, pois ela se encontra imersa na sociedade do conhecimento, cuja novidade principal é a de que a informação está envolvida numa estruturação reflexiva e comunicacional. As metodologias de pesquisa do conhecimento sociológico, vinculadas ao mundo da informação digital computável, implicam desafios, sobretudo diante das novas modulagens relacionadas à produção e à descoberta de conhecimentos suportados por computadores. O mundo sociológico apresenta-se, cada vez mais, conectado à reflexividade do conhecimento, assim, a decifração da esfinge informacional pode vir a ser uma grande contribuição da Sociologia à compreensão tanto da produção do conhecimento dessa área, como da vida social contemporânea. Urge, nesse sentido, que a Sociologia caminhe em direção à dupla competência sociológica (Sociologia e Informática) para a formação dos novos cientistas e pesquisadores sociais. O objetivo principal desta tese é verificar a situação da atual interface entre os(as) sociólogos(as) brasileiros(as) e a Informática. Busca-se, também, identificar as implicações metodológicas advindas da interface entre Informática e Sociologia na produção do saber acadêmico, assim como apontar algumas perspectivas desafiadoras para a dupla competência sociológica tanto no tocante à investigação como à produção do seu próprio saber. Inicia-se com parte da história da informação digital, especificando-se e precisando-se seu conceito. Metodologicamente, realizou-se uma pesquisa em nível nacional, através da Internet, visando-se identificar o impacto da Informática na produção do conhecimento sociológico no Brasil. Para tanto, utilizaram-se um programa questionário (software criado para esta tese) e recursos de banco de dados relacionais. Pergunta-se se a adoção de múltiplos procedimentos da informação computada está ou não permitindo a superação das velhas antinomias do tratamento informacional e afirmando um novo padrão de produção e de trabalho científico que se poderia denominar sociologia informacional. Quer-se, assim, afirmar que, diferentemente dos artefatos e instrumentos de elevada amplificação muscular e/ou apenas sensória, a informação digital computável potencializa mais efetivamente a amplificação lógico-cognitiva como o compartilhamento de memória de longo prazo, a integração de suportes recursivos sobre inferência numéricas ou miméticas, a recuperação parametrizada de dados e informações, o compartilhamento de cenários analíticos de simulações e o apoio a descobertas de conhecimento sociológico.