Magna Concursos

Foram encontradas 50 questões.

3640207 Ano: 2025
Disciplina: Legislação Municipal
Banca: Consulplan
Orgão: Pref. Nova Iguaçu-RJ

Tendo em vista o disposto na Lei Complementar Municipal nº 3.411/2002, analise as afirmativas a seguir.

I. O custeio do serviço de iluminação pública se dá por meio de taxa, tendo como fato gerador o fornecimento efetivo ou potencial do serviço de iluminação pública nas vias e logradouros públicos do município de Nova Iguaçu.

II. O Imposto sobre Transmissão de Bens Imóveis (ITBI) tem como fato gerador, entre outros, a transmissão “inter vivos”, a qualquer título, por ato oneroso: da propriedade ou do domínio útil de bens imóveis, por natureza ou por acessão física (conforme definido no Código Civil), e de direitos reais sobre imóveis, incluindo os direitos reais de garantia.

III. A Taxa de Localização de Estabelecimento (TLE) tem como fato gerador a utilização, efetiva ou potencial, de serviço público específico e divisível, prestado ao contribuinte ou posto à sua disposição; tal taxa poderá ser calculada em função do capital das empresas contribuintes.

IV. A Taxa de Fiscalização Sanitária (TFS) não incide sobre as pessoas físicas não estabelecidas, considerando-se como tal, entre outras, as pessoas que exerçam suas atividades em suas próprias residências, desde que não abertas ao público em geral.

Está correto o que se afirma apenas em

 

Provas

Questão presente nas seguintes provas
3640202 Ano: 2025
Disciplina: Direito Administrativo
Banca: Consulplan
Orgão: Pref. Nova Iguaçu-RJ

Determinado agente de contratação, ao se preparar para um certame licitatório que ocorrerá nos próximos meses de 2025, começa a estudar sobre os critérios de julgamento contidos na Lei nº 14.133/2021. Assim, ele se depara com as seguintes afirmações acerca da matéria e que precisa verificar a sua validade; analise-as.

I. O julgamento por menor preço ou maior desconto e, quando couber, por técnica e preço considerará o menor dispêndio para a administração, atendidos os parâmetros mínimos de qualidade definidos no edital de licitação.

II. O julgamento por maior retorno econômico, utilizado para a celebração de contrato de eficiência e de contratos de engenharia, considerará a maior economia para a administração, e a remuneração deverá ser fixada em percentual que incidirá de forma proporcional à economia efetivamente obtida na execução do contrato.

III. O julgamento por melhor técnica ou conteúdo artístico considerará exclusivamente as propostas técnicas ou artísticas apresentadas pelos licitantes.

Está correto o que se afirma em

 

Provas

Questão presente nas seguintes provas

Almir é servidor público efetivo do município de Nova Iguaçu, lotado na Secretaria de Administração. Após apresentar reiteradas faltas sem justificativa médica, a administração determinou que Almir fosse submetido a uma inspeção médica obrigatória para verificar sua condição de saúde e aptidão para o trabalho. Entretanto, Almir se recusou injustificadamente a comparecer à inspeção médica, mesmo após ser notificado formalmente pela chefia. Diante disso, foi instaurado um processo administrativo disciplinar para aplicação da penalidade cabível, conforme a legislação vigente. Com base no art. 108, § 1º, da Lei nº 2.378/1992, qual é a penalidade aplicável a Almir?

 

Provas

Questão presente nas seguintes provas

Com base na Lei Municipal nº 2.378/1992, assinale a alternativa que apresenta correta e simultaneamente uma forma de provimento e uma forma de vacância do cargo público.

 

Provas

Questão presente nas seguintes provas

O Município de Nova Iguaçu aprovou uma lei proibindo a soltura de fogos de artifício e artefatos pirotécnicos que produzam estampidos, alegando a necessidade de proteger o meio ambiente e os direitos das pessoas com hipersensibilidade a ruídos, como autistas e idosos. Um grupo de comerciantes e organizadores de eventos ingressou com uma ação judicial, argumentando que a norma municipal seria inconstitucional por violar a competência legislativa da União e dos estados sobre matéria de comércio e meio ambiente. Além disso, alegam que a proibição afrontaria o direito à livre iniciativa e à manifestação cultural. Considerando os preceitos constitucionais a respeito da organização do estado e os direitos e as garantias fundamentais, além do entendimento consolidado do Superior Tribunal Federal (STF) a respeito do assunto, assinale a afirmativa correta.

 

Provas

Questão presente nas seguintes provas

O município implementou um programa para a construção e gestão de novas unidades escolares públicas em locais que ainda não possuíam educação básica. Durante a execução do programa, foram identificadas cobrança de mensalidade, ausência de vaga para crianças abaixo de 6 anos de idade e ausência de vagas suficientes para estudantes com deficiência. Diante desse cenário, um grupo de cidadãos acionou o Ministério Público para questionar a legalidade da iniciativa municipal. Com base na Constituição Federal e nos princípios que regem o direito social à educação, assinale a afirmativa correta.

 

Provas

Questão presente nas seguintes provas

Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva

Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.

(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)

Considerando o primeiro parágrafo do texto, é correto afirmar que no encadeamento entre os períodos que o constituem pode-se observar, na introdução dos períodos, a partir do segundo:

 

Provas

Questão presente nas seguintes provas

Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva

Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.

(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)

Acerca das informações e ideias apresentadas no último parágrafo do texto, é INCORRETO afirmar que:

 

Provas

Questão presente nas seguintes provas

Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva

Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.

(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)

A escolha linguística para indicar o sujeito, agente da ação verbal, em “Estamos vivendo a era da datificação, [...]” (1º§) denota:

 

Provas

Questão presente nas seguintes provas

Futuro da Inteligência Artificial e a necessidade da ética relacional para uma governança inclusiva

Estamos vivendo a era da datificação, em que todos os aspectos da vida social são transformados em dados. Esse processo, fundamental para o desenvolvimento da Inteligência Artificial (IA), nos promete um futuro onde decisões complexas podem ser automatizadas e otimizadas em uma escala sem precedentes. No entanto, isso frequentemente simplifica a complexidade da vida humana em métricas e números, ignorando as relações e os contextos que tornam cada indivíduo único. Quando esses dados são usados em sistemas de IA, eles podem acabar reforçando as mesmas desigualdades e exclusões que pretendiam resolver.

Os dados que alimentam esses sistemas muitas vezes refletem contextos históricos de desigualdade. Como Coté (2022) observa, ao moldar identidades e comportamentos humanos em padrões digitais, a datificação impõe limites às representações, limitando a diversidade de experiências humanas e, em muitos casos, perpetuando estereótipos. Isso pode resultar em decisões enviesadas, criando um ciclo de exclusão e discriminação. Esse desafio nos obriga a questionar a suposta neutralidade dos algoritmos e a refletir sobre como essas decisões automatizadas moldam a sociedade, frequentemente favorecendo certos grupos em detrimento de outros.

Pensando em uma governança que seja realmente inclusiva, Browne (2023) propõe a criação de “AI Public Body” – uma entidade pública que permite a participação de cidadãos comuns, especialmente daqueles mais afetados pelas tecnologias de IA, nas decisões sobre o uso dessas tecnologias. Inspirado em modelos de democracia deliberativa, esse corpo incluiria a voz de comunidades diversas, trazendo uma nova perspectiva para as decisões que, até hoje, são dominadas por especialistas técnicos.

Esse modelo representa uma mudança significativa na forma como entendemos a governança, enfatizando que a IA não deve ser apenas uma questão de precisão técnica, mas também de justiça e representatividade. A inclusão dessas vozes no processo de governança cria um espaço onde os efeitos sociais das tecnologias podem ser mais bem compreendidos e endereçados, resultando em uma governança que reflete a diversidade da sociedade.

A justiça algorítmica muitas vezes é tratada como uma questão de otimização matemática, ajustando dados e métricas para minimizar desigualdades estatísticas. No entanto, como Van Nuenen (2022) aponta, a justiça social na IA deve ir além dos ajustes técnicos, considerando as complexas desigualdades estruturais que esses dados representam. Em vez de se limitar a resultados estatísticos, a justiça social exige uma compreensão mais profunda do impacto das decisões tecnológicas na vida das pessoas.

No caso de algoritmos usados em concessão de crédito ou reconhecimento facial, é essencial entender que esses sistemas não operam em um vácuo: eles são parte de uma sociedade com uma longa história de desigualdade. Para que a IA seja realmente justa, ela deve ser projetada com o compromisso de mitigar essas desigualdades, considerando as realidades vividas por comunidades marginalizadas e integrando suas vozes no desenvolvimento e na aplicação dessas tecnologias.

(Carine Roos. Em: 08/02/2025. Disponível em: https://www.hojeemdia.com.br/opiniao. Fragmento.)

A forma como a temática é abordada no texto apresenta aspectos não apenas positivos, mas situações que muitas vezes apontam certa preocupação. Representa(m) o exposto anteriormente:

 

Provas

Questão presente nas seguintes provas