909 resultados para Controle de processo - Métodos estatísticos
Resumo:
Este trabalho aborda o desenvolvimento de uma arquitetura de controle em tempo real para servoposicionadores pneumáticos, baseada em computadores pessoais (PCs). Os servoposicionadores pneumáticos são de baixo custo, leves, não poluentes e de fácil utilização. Como apresentam boa relação entre peso e força, são bastante atraentes em aplicações de robótica. Entretanto, devido a suas não linearidades, os servoposicionadores pneumáticos apresentam dificuldades em seu controle. Visando compensá-las, são desenvolvidos algoritmos de controle cada vez mais complexos, necessitando de ferramentas mais robustas quanto ao poder de processamento. Ferramentas com características necessárias para o desenvolvimento de algoritmos e para o controle em tempo real de sistemas custam caro, o que dificulta o desenvolvimento de novas tecnologias de controle de servoposicionadores pneumáticos. Este trabalho apresenta uma revisão das soluções utilizadas na construção de sistemas pneumáticos de posicionamento e daquelas adotadas no controle digital de sistemas automáticos. Descrevese o processo de construção de uma bancada experimental, e o desenvolvimento das soluções em hardware e software para o controle digital é discutido. Visando uma solução economicamente atraente, são utilizados unicamente softwares de código aberto e de livre utilização, assim como hardwares de baixo custo.Para verificar a eficiência da solução proposta, a arquitetura de controle é utilizada para realizar a identificação dos parâmetros do sistema pneumático. Dentre eles, destacam-se a vazão mássica e o atrito, informações importantes para simulação e controle do sistema. Também são utilizados controladores do tipo Proporcional-Integral-Derivativo, implementados para apoiar o estudo do desempenho da arquitetura no controle do servoposicionador pneumático.
Resumo:
A formulação de planejamentos e o direcionamento estratégico das empresas dependem da identificação e a previsão correta das mudanças emergentes no ambiente de negócios, o que torna a previsão de demanda um elemento chave na tomada de decisão gerencial. Um dos maiores problemas associados com o uso de previsões de demanda no apoio à tomada de decisões é a escolha do método de previsão a ser implementado. Organizações com necessidades e características distintas em relação aos seus produtos e serviços atuam em diferentes cenários de mercado. Diferentes cenários necessitam de diferentes métodos de previsão, de forma a refletir mudanças na estrutura do mercado (como entrada de novos produtos, novos competidores e/ou mudanças no comportamento dos consumidores). Assim, uma metodologia que direcione diferentes métodos de previsão de demanda para as situações em que são mais eficientes pode auxiliar o processo preditivo e de tomada de decisões das organizações, minimizando erros de planejamentos estratégico, tático e operacional. Esta dissertação apresenta uma metodologia de seleção de métodos de previsão de demanda mais apropriados para diferentes situações. Métodos de integração de métodos qualitativos e quantitativos de previsão melhoram a acurácia nos processo preditivos e também são abordados na metodologia de seleção de métodos de previsão. A metodologia proposta é ilustrada através de dois estudos de caso. No primeiro estudo investigou-se o caso de um produto com demanda regular. No segundo estudo, detalhou-se o processo de previsão para um cenário de lançamento de um novo produto.
Resumo:
Agressão de nefastos efeitos, o abuso sexual infantil – ASI - tem acompanhado a humanidade, independentemente do poderio econômico, cultura, raça ou credo, sendo que a aparente evolução da civilização não tem apresentado como corolário sua diminuição. A missão de enfrentar esta complexa realidade foi incumbida ao Poder Judiciário e órgãos afins. Apesar dos avanços das normas concernentes à tutela dos direitos das crianças e adolescentes, na prática pouco se tem feito para sua efetivação, focando-se apenas na punição do agressor, em razão da ausência de normas instrumentais específicas e de clareza na definição e compreensão do que constitui delito de natureza sexual, ensejando a chamada violência institucional. Evidência disso são os métodos alternativos implementados aleatoriamente pelo país, elaborados pelos atores envolvidos no atendimento institucional de vítimas de ASI e seus familiares, notadamente o Depoimento Sem Dano, formatado para a inquirição de crianças e adolescentes em Juízo, com intermédio de profissional habilitado, e previsão de gravação, para posterior análise no processo. Dentre as experiências, o Depoimento Sem Dano tem se destacado, suscitando reconhecimento e questionamentos, atualmente incluso em projeto de lei no Senado. Não é de hoje a tentativa de normatização dessa prática instituída no Rio Grande do Sul e objeto de projetos pilotos em alguns outros Estados, esbarrando em questões controversas, fazendo-se essencial uma análise crítica do método. Por envolver tal método, como a grande maioria das experiências alternativas realizadas no atendimento dos casos de ASI, a interdisciplinaridade, principalmente entre Direito e Psicologia, de relevo um estudo de como deve ocorrer este imbricamento no âmbito forense. Por fim, a par do Depoimento Sem Dano, dentre vários projetos, pinçaram-se três para breve estudo, quais sejam, o projeto Mãos que Acolhem – transposição do método Depoimento sem Dano para a Delegacia de Polícia, os Centros de Defesa da Criança – CACs, locais em que se centralizam todo tipo de atendimento às crianças e adolescentes vítimas de abuso sexual, e a Unificação das Competências das Varas da Infância e Juventude e Crimes contra Crianças e Adolescentes, para que os casos sejam decididos de forma coesa e eficaz. Tais projetos refletem o esforço dos atores envolvidos na humanização da Justiça, especialmente em relação àqueles que mais dela necessitam, as crianças e adolescentes.
Resumo:
A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.
Caracterização química de extratos de Hibiscus tiliaceus : estudo comparativo de métodos de extração
Resumo:
O presente trabalho teve como objetivo estudar a composição química das flores de Hibiscus tiliaceus L usando diferentes técnicas de extração. Os métodos de extração usados foram maceração, Soxhlet, ultra-som, extração com fluido supercrítico e extração com líquido pressurizado. Foram investigadas as variáveis que podem influenciar no processo de extração tais como temperatura, pressão, polaridade do solvente, tempo de extração e massa de amostra, entre outras. A identificação dos compostos foi realizada por cromatografia gasosa acoplada com detector de espectrometria de massas. Os métodos de extração utilizados mostraram-se eficientes para a obtenção dos extratos, com algumas diferenças qualitativas. Quantitativamente, os compostos majoritários, em todas as técnicas de extração usadas, foram ácidos carboxílicos (C16 e C18), hidrocarbonetos com número ímpar de carbonos (C27, C29 e C31) e fitosteróis. Entre os métodos de extração que utilizam solventes orgânicos, a extração com líquido pressurizado apresentou maior rendimento em massa de extrato e maior concentração de alguns dos compostos presentes nas flores de Hibiscus tiliaceus L., com as vantagens de redução de solventes e do tempo de extração. A variável que se mostrou mais importante nos procedimentos de extração foi a polaridade do solvente. A composição química das flores Hibiscus tiliaceus L apresentou além dos compostos citados, álcoois, aldeídos e vitamina E. A determinação do potencial antioxidante da planta, utilizando o método por quimiluminescência, permitiu encontrar valores para TAR e TRAP superiores ao trolox, utilizado como padrão, indicando a presença de antioxidantes nos extratos.
Resumo:
Esta dissertação aborda a redução da variabilidade e a reduçaõ de perdas da má qualidade em um processo de corrugação de chapas de corpo de silos de grãos, através da utilização de Controle Estatístico do Processo (CEP). Foram analisadas e monitoradas as principais características e variáveis que influenciam o processo produtivo. Também foi proposto o uso de um item de controle igualmente chamado indicador de desempenho para permitir acompanhamento das perdas da má qualidade no mesmo processo, no Departamento de Produção, Setor Estamparia, da empresa GSI Group - Agromarau Indústria e Comércio Ltda. A dissertação apresenta uma revisão da literatura abordando assunto qualidade, custos da qualidade, indicadores de desempenho e Controle Estatístico do Processo. As ações de, monitoramento do processo, evolução de sistemas de inspeção de produto para sistemas de aprendizagem com o processo, medição das perdas da qulaidade, ação imediata sobre causas especiais e treinamento de operadores, analistas da qualidade e chefias, proporcionaram a redução da variabilidade e a redução das perdas da má qulaidade, através da implantação do CEP.
Resumo:
Este trabalho tem como objetivo principal analisar as relações entre variáveis que influenciam o processo de estabelecimento dos sistemas de controle gerencial e orçamento, assim como os mecanismos de mensuração e avaliação de desempenho nas organizações, tendo como referencial básico a Teoria da Agência. As variáveis analisadas foram: folga orçamentária, incerteza e estratégia. O problema de pesquisa apresentado visa encontrar evidências acerca dos relacionamentos entre estas variáveis, tendo como pressuposto a função chave desempenhada pelo orçamento nos processos em questão. Entre os principais autores que compõem o referencial da pesquisa, destacamos diversos estudos que buscaram explicar relações entre as variáveis em foco e outras, visando compreender os antecedentes que definem os desenhos dos sistemas de controle e avaliação de desempenho. Assim, a partir da compreensão dos conceitos básicos envolvidos neste estudo – Teoria da Agência, sistemas de controle gerenciais, indicadores de desempenho e orçamento, os quais compõem o referencial teórico da pesquisa, foram propostas hipóteses para se tentar responder ao problema de pesquisa. Estas relacionam-se com a existência de folga orçamentária no orçamento de resultado da empresa em estudo, e com a influência do ambiente de incerteza e da estratégia associada ao negócio, no processo de criação de folga orçamentária. Desta forma, estas hipóteses foram testadas em um estudo de caso em uma corporação familiar, que é composta por três empresas de capital fechado, que atuam na importação, industrialização e comercialização de insumos, partes e peças e produtos. Para realizar os testes estatísticos, foi feito um corte longitudinal nos dados do orçamento de indicadores de desempenho do tipo Accounting Performance Measure (APM), formando uma série histórica de 36 meses. Dentre as principais conclusões do estudo, que permitiram uma análise ampla dos aspectos relacionados aos antecedentes ambientais internos e externos que levam a comportamentos disfuncionais entre os agentes, foi evidenciada a existência da folga orçamentária e a influencia da incerteza em sua criação, porém não se pode afirmar que a estratégia tenha influência neste processo, no caso em questão.
Resumo:
Os métodos radiométricos (Rb-Sr e Sm-Nd) têm sido aplicados, com sucesso, em rochas sedimentares visando a obtenção de idades deposicionais e informações sobre proveniência. Em muitos casos, apesar dos resultados geologicamente significativos, ainda persistem dúvidas em relação a extensão e interpretação dos dados obtidos. Isto ocorre porque as rochas sedimentares resultam da mistura de fragmentos detríticos de diversas proveniências com diferentes sistemas isotópicos, conseqüentemente, já contendo um registro isotópico da rocha fonte. No caso do método Rb-Sr, aplicado em rochas sedimentares de granulometria fina, pode-se obter idades absolutas para o evento deposicional. Isto é viável desde que este registro isotópico proveniente das rochas fonte seja apagado no momento da deposição, ou seja, deve ocorrer a homogeneização isotópica do Sr no ambiente sedimentar. Para tanto, devem ser observados alguns pré-requisitos em relação a amostragem, granulometria, ambiente deposicional e composição mineralógica das amostras, entre outros. No entanto, ainda existem questionamentos em relação a esta metodologia especialmente quanto à ocorrência e à extensão do processo de homogeneização isotópica do Sr em ambiente sedimentar.(Continua0 O método Sm-Nd, apesar de ser uma técnica relativamente nova quando aplicada a rochas sedimentares, tem se tornado uma ferramenta fundamental para auxílio na determinação de proveniência de rochas sedimentares. As maiores dificuldades estão na correta interpretação dos valores obtidos e sua associação com um ambiente sedimentar, ou seja, de baixa temperatura. Neste trabalho, foram aplicados os métodos radiométricos Rb-Sr e Sm-Nd em amostras de rochas sedimentares coletadas em diferentes contextos geológicos da Bacia do Paraná. Foram tentativamente testados os diferentes parâmetros que atuam no sentido da homogeneização isotópica do Sr e do comportamento do Nd. Os resultados obtidos permitiram aprimorar a metodologia radiométrica Rb-Sr e Sm-Nd quando aplicada em rochas sedimentares, bem como obter resultados sobre a idade deposicional de diferentes unidades sedimentares e, por vezes, sua proveniência.
Resumo:
Este trabalho teve como objetivo o desenvolvimento de uma nova técnica para determinação do tamanho médio e da distribuição de tamanho de bolhas de ar em meio aquoso. A nova técnica, denominada de LTM-BSizer, uma vez otimizada, foi aplicada na caracterização das bolhas geradas por diversos métodos utilizados tanto na flotação para tratamento de efluentes líquidos quanto na flotação de partículas minerais e, principalmente, na investigação de parâmetros operacionais e do efeito do tamanho de bolhas na flotação de partículas minerais (quartzo como modelo) finas (40-10 µm) e ultrafinas (<10 µm). A técnica LTM-BSizer é baseada no conceito da captura, ou seja, ao contrário das técnicas fotográficas até agora propostas, onde as imagens (fotos ou vídeos) das bolhas em movimento foram obtidas com visores verticais, este método obteve as imagens das bolhas estabilizadas em um visor disposto na horizontal. Entre as vantagens em relação aos métodos fotográficos existentes destacam-se a melhor qualidade das imagens e a capacidade de medir distribuições de tamanho de bolha com grande amplitude, desde microbolhas (<100 µm) até bolhas maiores (~ 1 a 3 mm). Os métodos de geração de bolhas pesquisados foram: microbolhas geradas por despressurização de água saturada com ar em um vaso saturador (processo de flotação por ar dissolvido-FAD) ou por uma bomba centrífuga multifase (novo equipamento para geração de microbolhas), injeção de mistura ar-líquido através de um constritor tipo venturi (destaque na flotação não convencional), injeção de ar em cilindro inox poroso (comumente aplicado para dispersão de gás) e bolhas geradas em uma célula de flotação por ar induzido (FAI), convencional de bancada Para todos os métodos citados, exceto o último, a distribuição de tamanho de bolha foi avaliada numa coluna em acrílico com 200 cm de altura e 72 mm de diâmetro, onde através de um ponto de amostragem parte do fluxo foi conduzida até o visor. Os resultados obtidos com esta técnica foram, para os diâmetros médios de bolha: 30 a 70 µm para FAD, 65 a 130 µm para bomba multifase, 200 a 1400 µm para venturi, 500 a 1300 µm para FAI e 500 a 1000 µm para o cilindro poroso. A influência de alguns parâmetros operacionais na formação das bolhas foi estudada em detalhe e os resultados obtidos mostraram uma boa correspondência com os valores encontrados na literatura e em outros casos, elucidaram efeitos considerados contraditórios na literatura técnica. Este trabalho demonstrou que, o tamanho médio e a distribuição de tamanho das microbolhas, não são influenciados pela pressão de saturação no intervalo de 294 a 588 kPa, mas sim pela quantidade de bolhas e pelo tempo de retenção Também foi constatado que a diminuição da tensão superficial da água (adição de 30 mg/L de oleato de sódio) aumenta consideravelmente (3 a 8 vezes) o número de microbolhas na FAD a baixas pressões de saturação (196 e 294 kPa). O tamanho e a distribuição de tamanho de bolhas geradas em constrições de fluxo tipo venturi variam em função dos parâmetros concentração de tensoativo, velocidade superficial de líquido (UL) e razão gás/líquido (Qr). Uma pequena diminuição da tensão superficial, de 73 para 68 mN/m, provocada pela adição de 20 mg/L do tensoativo DF 250, foi suficiente para diminuir consideravelmente o tamanho das bolhas geradas, permanecendo constante para concentrações maiores, sugerindo que esta seja a concentração crítica de coalescência (CCC) para este sistema. Um aumento de UL (mantendo Qr constante) e diminuição de Qr (com UL constante) levaram a distribuições com menor amplitude e diâmetro médio. No caso das microbolhas geradas através da bomba multifase, o tamanho de bolhas diminuiu com a pressão até atingir o limite de solubilidade teórico ar/líquido. O tamanho das bolhas gerados através de placa porosa e FAI apresentaram boa correspondência com os reportados na literatura e em ambas as técnicas foi, de novo, encontrada, para DF 250, a mesma CCC igual a 20 mg/L. O sistema de flotação de partículas finas e ultrafinas, foi estudado via recuperação de finos de quartzo (50% < 10µm) em coluna de laboratório. As variáveis estudadas foram; a distribuição de tamanho de bolhas e a concentração de coletor (amina). Os resultados obtidos mostraram que a recuperação das frações mais finas aumenta com a diminuição do tamanho de bolhas de acordo com os modelos existentes de flotação. Entretanto, foi encontrado, na captura de partículas ultrafinas pelas bolhas, um valor ótimo de tamanho de partícula. Assim, a captura diminui com o tamanho de partícula até 5-7 µm e aumenta, de novo, nas frações menores. Esses resultados são discutidos em termos de um mecanismo de difusão como fenômeno predominante nos mecanismos de adesão bolha-partícula.
Resumo:
A demanda por aplicações de workflow tem crescido rapidamente. Por um lado há uma evolução em ambientes com plataformas de sistemas maduras e disseminadas, por outro, processos de redesenho administrativo têm contribuído no aumento desta demanda. Apesar disto, profissionais de TI ainda encontram alguns problemas, e por isto, têm se aproximado de workflow com receio. Na administração pública de Porto Alegre, a otimização dos processos organizacionais de atendimento às demandas individuais dos cidadãos - que geram um registro em papel que constitui o que se denomina processo administrativo ou expediente, ou seja, um volume físico de papéis tramitando manualmente pelas estruturas que atuam no atendimento da demanda - redundou no emprego de ferramentas de automação para introduzir maior produtividade e eficiência na mudança dos métodos de trabalho. Mas alguns problemas se destacaram quando foi iniciado o desenvolvimento de aplicações de automação de processos. Uma face deles se mostrou em problemas conceituais que vão desde a confusão entre workflow e outras áreas, como BPR ou GED, à falta de domínio sobre as abstrações fundamentais na elicitação de workflow. Outra face se mostrou nos WMS, verdadeiros ambientes proprietários, fechados e pesados, de difícil utilização e pouco flexíveis para os desenvolvedores utilizarem em seu ambiente. Finalmente, outro problema foi a integração de aplicações de workflow com sistemas de informação, buscando informações e eventos em aplicações legadas, algumas existentes por décadas. Frente a isto, este trabalho aborda a produção de workflow sob a ótica dos desenvolvedores - analistas, projetistas e programadores - que necessitam criar aplicações corporativas em seus ambientes de Engenharia de Software. Neste cenário, a linha divisória entre a elaboração de uma aplicação de workflow e um sistema de informação se torna tênue, e compreender os aspectos envolvidos, dominá-los e utilizá-los neste ambiente é primordial para o sucesso e disseminação de aplicações de automação de processos. Este trabalho propõe uma extensão do Diagrama de Atividades da UML para modelar e elicitar o controle de atividades, a criação de um motor de workflow para executar a máquina de estados do Diagrama de Atividades, a ser utilizado como componente na arquitetura das aplicações. A utilização do motor de workflow e do Diagrama de Atividades estendido são apresentados num case de automação de um processo da Secretaria do Planejamento Municipal da Prefeitura Municipal de Porto Alegre que atende a solicitações diretas dos cidadãos.
Resumo:
Resumo não disponível.
Resumo:
Este trabalho trata do processo de transformação do sistema de gestão do Hospital Evandro Chagas/Fiocruz. Enfoca as características das organizações hospitalares públicas e os desafios de coordenação do trabalho médico e de pesquisa, tomando aquele Hospital como referência para reflexão. Apresenta e discute os princípios de organização de sistemas de gestão a partir das compreensões do planejamento estratégico-situacional e da teoria das macroorganizações de Carlos Matus. Finalmente, considera que o processo de desenvolvimento gerencial das organizações hospitalares, a partir da experiência em foco, deve ser compreendido em pelo menos duas dimensões mutuamente condicionantes: a primeira, ao nível do aperfeiçoamento das estruturas e métodos gerenciais; e a segunda, ao nível da profissionalização dos dirigentes hospitalares.
Resumo:
Este estudo trata do processo de execução do orçamento, referente ao período de 1995 a 2008, da Universidade Estadual do Maranhão, órgão de natureza autárquica, vinculado à Secretaria de Estado da Ciência, Tecnologia, Educação Superior e Desenvolvimento Tecnológico. O objetivo central desta pesquisa foi verificar a existência de pressão orçamentária naquela Instituição e, se existente, demonstrar quais os critérios relevantes na alocação das cotas e quais elementos geram pressão na elaboração e execução do orçamento, através da análise de dados institucionais e entrevistas de servidores ligados à sua Administração Superior e controle orçamentário, mediante a comparação do que fora orçado com o efetivamente realizado, em seus grupos de despesas, ou seja, pessoal, custeio e capital. Para tanto, o problema desta pesquisa foi descrito através das seguintes questões: Há pressão orçamentária na UEMA, na fase de elaboração do orçamento? Há pressão orçamentária na UEMA, na fase de execução do orçamento? Que elementos geram pressão na elaboração e na execução do orçamento da UEMA? Quais são os critérios relevantes à alocação das cotas orçamentárias entre os Centros de Ensino da UEMA? A coleta de dados foi realizada através de entrevistas semi-estruturadas e documentos. O processo de análise de dados consistiu em verificar documentos referentes à dotação orçamentária comparativamente as cotas liberadas e a análise em profundidade dos depoimentos colhidos nas entrevistas. A discussão dos resultados gerou conclusões importantes por constatar a existência de pressão orçamentária na elaboração e na execução do orçamento daquela Universidade, identificando os elementos causadores da pressão, assim como os critérios relevantes na alocação das cotas.
Resumo:
Estamos inseridos em uma sociedade com características bastante diferenciadas das anteriores, fato que se deve especialmente à evolução tecnológica. Percebe-se que a tecnologia está literalmente no ar e as informações e conhecimentos do mundo estão praticamente disponíveis a todos os indivíduos. Esta nova configuração da sociedade demanda um profissional que, não somente conheça e entenda as características das sociedades passadas, como também desenvolva a capacidade de avaliação dos fatos presentes, no intuito de antever o futuro, seja ele individual, da empresa, ou da sociedade na qual está inserido, no mercado e no mundo. Sabe-se que, atualmente, os principais e mais qualificados centros de formação de profissionais da área de administração de empresas são as instituições de ensino superior. Porém, somente é possível o desenvolvimento das competências necessárias do novo profissional, se a instituição tiver uma infraestrutura adequada, boas relações com governo e seus pares, aliado a um corpo docente com preparo adequado. O presente trabalho tem por objetivo verificar de que forma as tecnologias de informação e comunicação vem sendo utilizadas, nos cursos graduação em Administração de Empresas, como apoio às práticas de ensino e aprendizagem. Para tanto, foi realizada uma pesquisa via questionário eletrônico junto ao corpo docente, a fim de identificar as tecnologias utilizadas, bem como sua relação com as estratégias de ensino e os objetivos pedagógicos. A análise da utilização desses objetivos pedagógicos e também das estratégias de ensino, permitem concluir que a dinâmica envolvida nos atos de ensinar e aprender estão fortemente embasadas na perspectiva associacionista, que considera a aprendizagem como mudança de comportamento. A perspectiva construtivista social também é explorada, porém em menor intensidade. Constata-se então, que as tecnologias de informação e comunicação são utilizadas principalmente para apoiar as estratégias de ensino e os objetivos pedagógicos, isto quer dizer que elas ainda não despertam a utilização de novas formas de aprendizagem. Conclui-se que as tecnologias de informação e comunicação são utilizadas para facilitar a apresentação do conteúdo, controlar a gestão do aprendizado, bem como para comunicar aos discentes informações que os docentes julguem importantes de serem compartilhadas. Tais conclusões levam a crer que ainda existe uma grande lacuna entre a utilização destas tecnologias no meio empresarial e acadêmico.
Resumo:
No contexto pós redemocratização, Estado e sociedade civil estão em transformação: discute-se novos modelos de gestão pública, mais descentralizados e gerenciais; enquanto proliferam as organizações sem fins lucrativos abrindo novos espaços também para a participação dos empresários nas decisões sobre os rumos do país. A accountability governamental entra na pauta e o controle social surge nas falas de movimentos sociais que chamam atenção pela diversidade de seus membros e pelas mudanças que vem provocando na institucionalidade vigente. Uma referencia destes movimentos é o Nossa São Paulo, articulador de mais de seiscentas organizações na segunda maior cidade do mundo e modelo organizacional e político para dezenas de iniciativas similares que se disseminam pelo país e pela America Latina. O objetivo desta pesquisa é compreender o lugar do controle social, e mais amplamente, da accountability governamental no processo de framing desenvolvido pelo Movimento Nossa São Paulo. Para tanto, realizou-se um estudo de caso exploratório, incluindo revisão da literatura, análise de documentos, observação em eventos e entrevistas em profundidade, focando nos momentos de gênese e mobilização do Movimento Nossa São Paulo e na articulação para a aprovação de legislação relacionada à accountability governamental. Este trabalho apresenta, assim, o percurso dos grupos que formam o Nossa São Paulo observando o surgimento do controle social como quadro interpretativo composto pela união entre movimentos historicamente vinculados pelo mote da justiça social e outros grupos ligados ao desenvolvimento urbano e à responsabilidade socioambiental, articulados no pleito pela sustentabilidade. Como pano de fundo, estão as discussões sobre o direito à cidade, os dilemas clássicos da representação e os novos caminhos no campo dos modelos democráticos.