Foram encontradas 3.020 questões.
Acerca dos frameworks LangChain e Llamaindex, amplamente utilizados atualmente para construir aplicação
integradas a Large Language Models (LLMs), a opção que
apresenta uma observação correta é:
Provas
Questão presente nas seguintes provas
Ao integrar informações provenientes de fontes de
dados externas, como documentos ou bancos de dados,
com Large Language Models (LLMs), é possível empregar
uma variedade de técnicas e estratégias para construir
aplicações adaptadas às demandas específicas de cada
projeto e aos recursos disponíveis.
Das opções abaixo, a que descreve corretamente uma dessas técnicas é:
Das opções abaixo, a que descreve corretamente uma dessas técnicas é:
Provas
Questão presente nas seguintes provas
Considerando o avanço recente dos modelos de Processamento de Linguagem Natural (PLN) e a necessidade
crescente de processar e sumarizar grandes volumes de
documentos de forma eficiente, você foi encarregado de
desenvolver uma aplicação capaz de sumarizar automaticamente documentos clínicos, proporcionando aos
profissionais de saúde acessos mais rápidos e precisos às
informações relevantes dos pacientes. Um aspecto primordial no desenvolvimento de aplicações de sumarização é
a avaliação dos sumários gerados, na medida em que os
usuários passam a confiar nesses sumários para tomada
de decisão.
Sobre avaliação de sumários, a opção que NÃO apresenta um modelo adequado para esta tarefa é:
Sobre avaliação de sumários, a opção que NÃO apresenta um modelo adequado para esta tarefa é:
Provas
Questão presente nas seguintes provas
O uso de Large Language Models (LLMs) na área da
saúde, como GPT e BERT, oferece um vasto campo de
possibilidades para inovação. Atualmente, é possível criar
uma série de aplicações que fazem uso dessas LLMs,
variando desde melhorias da qualidade e acessibilidade
a conhecimentos até o apoio a novas pesquisas na área.
Entre as opções abaixo, aquela que apresenta uma iniciativa que NÃO pode ser baseada no uso de LLMs é:
Provas
Questão presente nas seguintes provas
A evolução das tecnologias de Inteligência Artificial,
especialmente no campo do Processamento de Linguagem
Natural (PLN), tem sido marcada por inovações significativas que transformaram a maneira como as máquinas entendem e geram linguagem humana. Uma dessas inovações
é a arquitetura de Transformers, introduzida pelo artigo
Attention is All You Need em 2017, superando as limitações
das abordagens anteriores baseadas em Redes Neurais
Recorrentes (RNNs) e tornando-se a base fundamental
para o surgimento dos Large Language Models (LLMs).
Sobre essa arquitetura, pode-se afirmar que:
Sobre essa arquitetura, pode-se afirmar que:
Provas
Questão presente nas seguintes provas
Você é um cientista de dados trabalhando em um projeto
de pesquisa em saúde que envolve a análise de relatórios
médicos utilizando técnicas de Processamento de Linguagem Natural (PLN). Parte do seu trabalho é explorar as
relações semânticas entre diferentes condições de saúde
utilizando um modelo pré-treinado de word embeddings em
português, focado na área da saúde. Você decide investigar
a relação entre diferentes doenças e tratamentos.
Seja o seguinte código Python, que utiliza a biblioteca gensim e um modelo hipotético de word embeddings denominado modelo_saude.bin especializado em termos médicos em português:
import numpy as np from gensim.models import KeyedVectors
def calcular_similaridade(vetor_a, vetor_b): numerador = np.dot(vetor_a, vetor_b) denominador = np.linalg.norm(vetor_a) *
np.linalg.norm(vetor_b) similaridade = numerador / denominador return similaridade
mo del = Ke yed Vectors. load_ word 2vec _ format(‘modelo_saude.bin’, binary=True) vetor_diabetes = model[‘diabetes’] vetor_hipertensao = model[‘hipertensão’] vetor_insulina = model[‘insulina’]
vetor_diabetes_ajustado = vetor_diabetes + vetor_insulina vetor_hipertensao_ajustado = vetor_hipertensao + vetor_insulina
similaridade = calcular_similaridade(vetor_ diabetes_ajustado, vetor_hipertensao_ajustado) print(f”Similaridade: {similaridade}”)
Utilizando o modelo hipotético model_saude.bin, o resultado mostrado pelo código foi de 0.7036085724830627. Baseado no cenário descrito, no código fornecido e no resultado mostrado, a opção que melhor descreve o que está sendo calculado e o significado do resultado é:
Seja o seguinte código Python, que utiliza a biblioteca gensim e um modelo hipotético de word embeddings denominado modelo_saude.bin especializado em termos médicos em português:
import numpy as np from gensim.models import KeyedVectors
def calcular_similaridade(vetor_a, vetor_b): numerador = np.dot(vetor_a, vetor_b) denominador = np.linalg.norm(vetor_a) *
np.linalg.norm(vetor_b) similaridade = numerador / denominador return similaridade
mo del = Ke yed Vectors. load_ word 2vec _ format(‘modelo_saude.bin’, binary=True) vetor_diabetes = model[‘diabetes’] vetor_hipertensao = model[‘hipertensão’] vetor_insulina = model[‘insulina’]
vetor_diabetes_ajustado = vetor_diabetes + vetor_insulina vetor_hipertensao_ajustado = vetor_hipertensao + vetor_insulina
similaridade = calcular_similaridade(vetor_ diabetes_ajustado, vetor_hipertensao_ajustado) print(f”Similaridade: {similaridade}”)
Utilizando o modelo hipotético model_saude.bin, o resultado mostrado pelo código foi de 0.7036085724830627. Baseado no cenário descrito, no código fornecido e no resultado mostrado, a opção que melhor descreve o que está sendo calculado e o significado do resultado é:
Provas
Questão presente nas seguintes provas
Entre as observações abaixo sobre a técnica de Word
Embeddings e sua importância em modelos de Processamento de Linguagem Natural (PLN), a que está correta é:
Provas
Questão presente nas seguintes provas
Observe o código Python abaixo, que utiliza a biblioteca NLTK para tarefas de Processamento de Linguagem
Natural.
import nltk nltk.download(‘punkt’) from nltk.tokenize import word_tokenize
texto = “Fundação Oswaldo Cruz (Fiocruz): Ciência e tecnologia em saúde para a população brasileira.” tokens = word_tokenize(texto)
contador = 0 resultado = 0 while contador < len(tokens): for letra in tokens[contador]: if letra.upper() in ‘FIOCRUZ’: resultado += 1 contador += 1
O valor da variável resultado, ao final da execução do código, é:
import nltk nltk.download(‘punkt’) from nltk.tokenize import word_tokenize
texto = “Fundação Oswaldo Cruz (Fiocruz): Ciência e tecnologia em saúde para a população brasileira.” tokens = word_tokenize(texto)
contador = 0 resultado = 0 while contador < len(tokens): for letra in tokens[contador]: if letra.upper() in ‘FIOCRUZ’: resultado += 1 contador += 1
O valor da variável resultado, ao final da execução do código, é:
Provas
Questão presente nas seguintes provas
O Processamento de Linguagem Natural (PLN) busca
melhorar a capacidade das máquinas de entender e interagir com a linguagem humana de forma natural e semanticamente adequada. Ao longo dos anos, a evolução
dos modelos de Machine Learning tem desempenhado um
papel fundamental nesse processo, permitindo avanços
significativos em tarefas como tradução automática, análise
de sentimentos e assistentes virtuais. Esses modelos dependem de uma série de técnicas de pré-processamento
para transformar texto bruto em formas que possam ser
eficientemente analisadas e compreendidas. Numere a
2ª coluna pela primeira, considerando as técnicas e as
respectivas definições.
COLUNA 1
(1) Tokenização, (2) POS Tagging, (3) Stemização, (4) Lematização e (5) Chunking.
COLUNA 2
( ) Técnica que transforma uma palavra para sua forma de dicionário, considerando o contexto, a classe gramatical e outras características linguísticas.
( ) Trata de dividir o texto em unidades menores, como palavras ou partes de palavras, transformando o texto bruto e preparando-o para ser manipulado por algoritmos de PLN.
( ) Refere-se a reduzir as palavras para suas formas radicais, facilitando a análise de padrões comuns em diferentes variações da mesma palavra.
( ) Técnica de atribuir a cada palavra em um texto a sua classe morfossintática, como substantivos, verbos, adjetivos, etc.
( ) Trata de dividir um texto em segmentos mais curtos, como conjuntos de palavras ou seções de um texto, que serão tratados separadamente em processos posteriores como, por exemplo, vetorização.
A sequência correta, de cima para baixo, é:
COLUNA 1
(1) Tokenização, (2) POS Tagging, (3) Stemização, (4) Lematização e (5) Chunking.
COLUNA 2
( ) Técnica que transforma uma palavra para sua forma de dicionário, considerando o contexto, a classe gramatical e outras características linguísticas.
( ) Trata de dividir o texto em unidades menores, como palavras ou partes de palavras, transformando o texto bruto e preparando-o para ser manipulado por algoritmos de PLN.
( ) Refere-se a reduzir as palavras para suas formas radicais, facilitando a análise de padrões comuns em diferentes variações da mesma palavra.
( ) Técnica de atribuir a cada palavra em um texto a sua classe morfossintática, como substantivos, verbos, adjetivos, etc.
( ) Trata de dividir um texto em segmentos mais curtos, como conjuntos de palavras ou seções de um texto, que serão tratados separadamente em processos posteriores como, por exemplo, vetorização.
A sequência correta, de cima para baixo, é:
Provas
Questão presente nas seguintes provas
As Redes Neurais Recorrentes (RNNs) são projetadas
para processar dados sequenciais ou temporais, destacando-se pela sua capacidade de reter memória de entradas
anteriores através de loops internos na sua arquitetura.
Entre os algoritmos mais utilizados, destacam-se o Long
Short-Term Memory (LSTM) e o Gated Recurrent Unit
(GRU), ambos projetados para preservar informações ao
longo do tempo e superar o desafio do desaparecimento
do gradiente. Além disso, técnicas fundamentais como
softmax, backpropagation e o processo feedforward são
fundamentais para o treinamento e a eficácia das RNNs.
Acerca dessas técnicas, a opção que apresenta uma observação INCORRETA é:
Provas
Questão presente nas seguintes provas
Cadernos
Caderno Container