A colonização da Amazônia submeteu os indígenas de forma violenta ao controle do trabalho, recursos e produtos em torno da produção mercantil. Na Amazônia Sul Ocidental este processo se deu em fins do século XIX e durante quase todo o século XX. O seringal virou cativeiro para o indígena que perdeu o direito sobre o território tornando-se uma grande força de trabalho e impedido de viver sua cultura nas suas formas linguísticas, festas, rituais, pinturas artesanatos e agricultura. A história indígena passa por novas interpretações de caráter decolonial considerando a importância da memória dos povos originários como portadora da narrativa sobre eles. O trecho elucida o tempo do cativeiro no Estado do Acre, no qual povos indígenas e seringueiros
O Estado do Acre é dividido em 5 (cinco ) microrregiões e 2 (duas) mesorregiões, o Vale do Acre e o Vale do Juruá. Na microrregião Cruzeiro do Sul, localiza-se a
O Acre está se tornando uma referência nacional no etnoturismo , fortalecido por meio do Plano de Desenvolvimento do Turismo nas Terras Indígenas do Alto do Rio Purus e Alto Rio Juruá. Esse plano estrutura um conjunto de rotas turísticas , com objetivo de apresentar a diversidade da cultura indígena acr iana. O etnoturismo consiste em
A implementação do modelo dimensional em um banco de dados relacional denominada STAR SCHEMA é composta por uma tabela fato relacionada a diferentes tabelas de dimensão. A operação JUNÇÃO EM ESTRELA difere das demais estratégias de consulta pelo fato de começar pelo cálculo
A proposta de uma solução de Big Data é oferecer uma abordagem consistente no tratamento do constante crescimento e complexidade dos dados. Os pilares fundamentais para a criação de novas tecnologias e soluções nessa área, conhecidos como 5 V’s do Big Data, são :
A análise da documentação de bancos de dados transacionais é essencial para o processo de planejamento do Data Warehouse. Nesse contexto, é necessário o conhecimento das características e dos diferentes níveis de detalhamento dos modelos de dados. A modelagem de dados conceitual descreve a
Observe a imagem a seguir. No modelo entidade-relacionamento (MER), o processo de negócio é modelado como entidades que se relacionam. A figura a cima apresenta parte da representação de um processo em um diagrama Entidade-Relacionamento (DER). O relacionamento das entidades Pessoa e Apelido representado no DER assegura que:
Na linguagem SQL (do inglês, Structured Query Language), as operações de junção funcionam como uma espécie de filtro, recuperando registros das tabelas envolvidas a partir de um comportamento definido expressamente no comando JOIN. Assim, o comando Tabela1 INNER JOIN Tabela2 estabelece um comportamento que retorna os campos:
A técnica de consulta agrupada permite análise de dados e, a partir de cláusulas, obter informações em diferentes níveis de detalhamento, como “Quantas famílias foram beneficiadas por programas sociais nos dois últimos quadriênios”. A cláusula a ser utilizada para obter o detalhamento por programa social, no exemplo dado, é:
A exatidão e a consistência dos dados em um banco de dados relacional são garantidas a partir do uso de restrições de integridade, definidas no Sistema Gerenciador de Banco de Dados (SGBD) na forma declarativa - durante a definição da estrutura das tabelas - e/ou na forma procedural - na implementação das regras de negócio. A categoria da restrição de integridade que especifica os valores admitidos para um determinado campo na abordagem relacional é a integridade de
Considere o cenário a seguir. Uma tabela de um banco de dados relacional é utilizada em diferentes tipos de transações por uma série de aplicações. Um analista de banco de dados pretende implementar um processo de monitoramento, em atendimento às demandas de auditoria interna, que registre as operações que resultem alterações efetuadas naquela tabela. O processo de monitoramento descrito pode ser implementado por meio do mecanismo:
Triggers são construções especiais em PL/SQL, muito utilizados na manutenção da consistência de um banco de dados. Um trigger é executado implicitamente a partir de um dos seguintes comandos:
Os bancos de dados NoSQL (do inglês, Not Only SQL) são propostos para atender às necessidades de escalabilidade, flexibilidade de esquema e alto desempenho em ambientes de aplicações modernas. As soluções de bancos de dados NoSQL armazenam dados em esquemas flexíveis e são categorizadas em função destes. A qual categoria pertencem as soluções Neo4j e MongoDB respectivamente?
Considere que, em um projeto de análise de dados, um analista sugeriu o uso de motores de busca do tipo Elasticsearch, o qual foi configurado para realizar uma série de transformações nos dados de entrada, em um pipeline, antes da indexação dos dados. No entanto, o analista constatou um desempenho abaixo do esperado nas transformações e concluiu ser necessária a adição de nós Elasticsearch dedicados à execução de pipelines de pré-processamento de dados. Qual tipo de nós Elasticsearch deverão ser adicionados?
Seja a stored procedure definida pelo código abaixo. CREATE PROCEDURE STO @PAR INT AS BEGIN SELECT @PAR * @PAR AS QUAD END O comando no SQLServer que permite executar a referida stored procedure é:
No contexto de uma instalação de banco de dados Oracle, em suas versões mais recentes, USER_TABLES e DBA_TABLES referem-se aos:
Considere o seguinte comando para criação de SEQUENCE no Banco de Dados Oracle: CREATE SEQUENCE sequencia START WITH 100 INCREMENT BY 2 NOCACHE NOCYCLE; Para que o banco de dados realize um CACHE de 20 sequência por default, o administrador deverá omitir:
No banco de dados Oracle19, aberto e funcionando em condições ideais, a expressão CASE WHEN expr1 IS NOT NULL THEN expr1 ELSE expr2 END é equivalente a:
No âmbito das soluções tecnológicas de Big Data, o Apache Kafka é um framework de armazenamento de eventos distribuído e de processamento de fluxo de alto rendimento e baixa latência. Considere que a TI da Prefeitura de Rio Branco administre um cluster do Apache Kafka e o analista de banco de dados constatou que o espaço disponível para armazenamento de streams de eventos está insuficiente. Para expandir a camada de persistência e aumentar a escalabilidade, uma forma de prover mais espaço de armazenamento ao Apache Kafka é mediante novos componentes:
Utilizando técnicas de mineração de dados, um analista desenvolveu uma solução computacional que aprenderá, com um conjunto de dados rotulados de exemplo, a identificar categorias sobre um conjunto de dados desconhecidos. Qual o tipo de aprendizado deverá ser implementado na referida solução?
Uma consulta no banco de dados relacional resultou em todas as linhas com apenas os atributos desejados e especificados na consulta. Qual a operação da álgebra relacional executada na referida consulta?
A mineração de dados (Data Mining) envolve um conjunto de algoritmos e ferramentas que são utilizados para a exploração de dados, permitindo extrair padrões ocultos de forma automatizada e, assim, gerar informação. Qual método de mineração de dados é utilizado na extração de regras de associação?
O banco de dados Oracle possui processos em background que auxiliam as atividades de acesso e o controle. Dentre eles, destacam-se:
No banco de dados Oracle (versão de referência: 9i), há dois tipos de cursores (implícito e explícito). Para ambos os tipos, há quatro atributos que podem ser utilizados em código PL/SQL. Quais são esses atributos?
Em aprendizado de máquina, o ato de separar objetos em grupos (em inglês, clusters) por meio de determinadas características de um conjunto de dados é conhecido como agrupamento (em inglês, clustering). Técnicas ou métodos de agrupamento podem ser hierárquicos ou particionais, conforme é realizada a separação dos dados. Nesse contexto, o dendrograma é:
A arquitetura de banco de dados representada por coleções de registros e os relacionamentos por elos é implementada pelo modelo:
No âmbito das tecnologias de processamento e armazenamento de Big Data, estruturas, frameworks, bancos de dados e sistemas compõem soluções para enfrentar os desafios complexos da era dos dados em alta velocidade. Um sistema de processamento de fluxo de dados (streams) e arquitetura baseada em DAG (grafos acíclicos direcionados) é o Apache:
O Apache Hadoop é um framework de código aberto usado para armazenar e processar com eficiência grandes conjuntos de dados que variam em tamanho de gigabytes a petabytes. No que tange à sua constituição, o Apache Hadoop apresenta quatro módulos: HDFS (Hadoop Distributed File System), YARN (Yet Another Resource Negotiator), MapReduce e Hadoop Common. Os módulos YARN e MapReduce oferecem, respectivamente,
Um algoritmo de aprendizado de máquina é uma técnica que permite que um sistema computacional aprenda a partir de dados, identificando padrões e tomando decisões ou fazendo previsões com base nesses padrões aprendidos. Um algoritmo de classificação
Os sistemas de Data Warehouse são tradicionalmente suportados por modelos multidimensionais predefinidos, tendo o intuito de prover suporte a aplicações de Business Intelligence. A resposta às novas necessidades é a utilização de memória extensiva, distribuição de dados e paralelização de processamento, que, de uma forma ou de outra, estão incluídos no Apache Hadoop, Apache Spark, bases de dados NoSQL e tecnologias complementares a estas. Uma característica importante do Apache Spark é
ElasticSearch, Logstash e Kibana são softwares Open Source que compõem a pilha ELK, um conjunto de ferramentas que oferece a capacidade de agregar dados de todos os sistemas e aplicações, analisar e criar visualizações, monitorar aplicações e infraestruturas e solucionar problemas de forma mais rápida. No contexto da pilha ELK, o ElasticSearch
Existem vários sistemas de banco de dados NoSQL diferentes devido às variações na forma como gerenciam e armazenam dados em esquemas flexíveis. A solução que armazena dados em formato BSON (Binário JSON) e oferece uma estrutura flexível para a modelagem e manipulação de qualquer estrutura de dados é:


























