Foram encontradas 50 questões.
Em determinado canteiro de obras recém-instalado, um engenheiro é responsável por montar os ambientes das áreas de vivências, contemplando as instalações sanitárias, vestiário e refeitório. Considerando o total de setenta e seistrabalhadores do sexo masculino que irão utilizar o banheiro masculino coletivo e, ainda, que as instalações sanitárias masculinas devem ser dotadas de mictório, exceto quando essencialmente de uso individual, assinale a afirmativa correta sobre o dimensionamento dessa área de vivência segundo os padrões normativos.
Provas
Em um grande projeto de infraestrutura, a SEMCONGER solicitou uma análise detalhada dos custos executados com base na curva ABC. A tabela apresenta o valor inicial de cada insumo do projeto e o percentual de execução observado até o momento:

Considerando que o total de custos executados será utilizado para a análise da curva ABC e, ainda, a ordem de valor de execução, assinale o valor dos 80% mais significativos desses custos.
Provas
Almir é servidor público efetivo do município de Nova Iguaçu, lotado na Secretaria de Administração. Após apresentar reiteradas faltas sem justificativa médica, a administração determinou que Almir fosse submetido a uma inspeção médica obrigatória para verificar sua condição de saúde e aptidão para o trabalho. Entretanto, Almir se recusou injustificadamente a comparecer à inspeção médica, mesmo após ser notificado formalmente pela chefia. Diante disso, foi instaurado um processo administrativo disciplinar para aplicação da penalidade cabível, conforme a legislação vigente. Com base no art. 108, § 1º, da Lei nº 2.378/1992, qual é a penalidade aplicável a Almir?
Provas
Com base na Lei Municipal nº 2.378/1992, assinale a alternativa que apresenta correta e simultaneamente uma forma de provimento e uma forma de vacância do cargo público.
Provas
O Município de Nova Iguaçu aprovou uma lei proibindo a soltura de fogos de artifício e artefatos pirotécnicos que produzam estampidos, alegando a necessidade de proteger o meio ambiente e os direitos das pessoas com hipersensibilidade a ruídos, como autistas e idosos. Um grupo de comerciantes e organizadores de eventos ingressou com uma ação judicial, argumentando que a norma municipal seria inconstitucional por violar a competência legislativa da União e dos estados sobre matéria de comércio e meio ambiente. Além disso, alegam que a proibição afrontaria o direito à livre iniciativa e à manifestação cultural. Considerando os preceitos constitucionais a respeito da organização do estado e os direitos e as garantias fundamentais, além do entendimento consolidado do Superior Tribunal Federal (STF) a respeito do assunto, assinale a afirmativa correta.
Provas
O município implementou um programa para a construção e gestão de novas unidades escolares públicas em locais que ainda não possuíam educação básica. Durante a execução do programa, foram identificadas cobrança de mensalidade, ausência de vaga para crianças abaixo de 6 anos de idade e ausência de vagas suficientes para estudantes com deficiência. Diante desse cenário, um grupo de cidadãos acionou o Ministério Público para questionar a legalidade da iniciativa municipal. Com base na Constituição Federal e nos princípios que regem o direito social à educação, assinale a afirmativa correta.
Provas
Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva
Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.
Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.
Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.
Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.
A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.
No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.
(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
Considerando o primeiro parágrafo do texto, é correto afirmar que no encadeamento entre os períodos que o constituem pode-se observar, na introdução dos períodos, a partir do segundo:
Provas
Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva
Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.
Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.
Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.
Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.
A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.
No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.
(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
Acerca das informações e ideias apresentadas no último parágrafo do texto, é INCORRETO afirmar que:
Provas
Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva
Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.
Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.
Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.
Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.
A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.
No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.
(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
A escolha linguística para indicar o sujeito, agente da ação verbal, em “Estamos vivendo a era da datificação, [...]” (1º§) denota:
Provas
Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva
Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.
Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.
Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.
Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.
A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.
No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.
(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)
A forma como a temática é abordada no texto apresenta aspectos não apenas positivos, mas situações que muitas vezes apontam certa preocupação. Representa(m) o exposto anteriormente:
Provas
Caderno Container