Foram encontradas 32.256 questões.
No que se refere a técnicas de amostragem, julgue o item que se segue.
Em uma amostragem estratificada, deve-se fixar a probabilidade de escolher um elemento do estrato como igual à porcentagem do estrato em relação à população.
Provas
Para uma variável aleatória X e um parâmetro \( \theta \) , associado à distribuição de probabilidade de X , pode-se utilizar um estimador \( \hat{ \theta} \) para testar a hipótese do parâmetro \( \theta \) assumir um valor específico \( \theta_0 \). A fim de construir um teste, é necessário conhecer a distribuição do estimador, que definirá uma estatística de teste, e supor como hipótese nula, H0, a hipótese de que \( \theta = \theta_0 \). Para esse teste, existem dois tipos de erros: tipo I, rejeitar a hipótese H0 quando ela é verdadeira; tipo II, não rejeitar a hipótese H0 quando ela é falsa.
Com base nessas informações, julgue o seguinte item.
Testes com probabilidade de erro de tipo I pequenos são significativos para provar a falsidade de hipótese nula H0.
Provas
Para uma variável aleatória X e um parâmetro \( \theta \) , associado à distribuição de probabilidade de X , pode-se utilizar um estimador \( \hat{ \theta} \) para testar a hipótese do parâmetro \( \theta \) assumir um valor específico \( \theta_0 \). A fim de construir um teste, é necessário conhecer a distribuição do estimador, que definirá uma estatística de teste, e supor como hipótese nula, H0, a hipótese de que \( \theta = \theta_0 \). Para esse teste, existem dois tipos de erros: tipo I, rejeitar a hipótese H0 quando ela é verdadeira; tipo II, não rejeitar a hipótese H0 quando ela é falsa.
Com base nessas informações, julgue o seguinte item.
Em alguns casos, dependendo do tipo de distribuição para o estimador \( \hat{ \theta} \) , é possível definir erros muito pequenos para os dois tipos de erros.
Provas
Para uma variável aleatória X e um parâmetro \( \theta \) , associado à distribuição de probabilidade de X , pode-se utilizar um estimador \( \hat{ \theta} \) para testar a hipótese do parâmetro \( \theta \) assumir um valor específico \( \theta_0 \). A fim de construir um teste, é necessário conhecer a distribuição do estimador, que definirá uma estatística de teste, e supor como hipótese nula, H0, a hipótese de que \( \theta = \theta_0 \). Para esse teste, existem dois tipos de erros: tipo I, rejeitar a hipótese H0 quando ela é verdadeira; tipo II, não rejeitar a hipótese H0 quando ela é falsa.
Com base nessas informações, julgue o seguinte item.
Se o estimador \( \hat{ \theta} \) tem intervalo de aceitação com probabilidade 1 − a, então a probabilidade do erro de tipo I será \( \alpha \).
Provas
Para uma variável aleatória X e um parâmetro \( \theta \) , associado à distribuição de probabilidade de X , pode-se utilizar um estimador \( \hat{ \theta} \) para testar a hipótese do parâmetro \( \theta \) assumir um valor específico \( \theta_0 \). A fim de construir um teste, é necessário conhecer a distribuição do estimador, que definirá uma estatística de teste, e supor como hipótese nula, H0, a hipótese de que \( \theta = \theta_0 \). Para esse teste, existem dois tipos de erros: tipo I, rejeitar a hipótese H0 quando ela é verdadeira; tipo II, não rejeitar a hipótese H0 quando ela é falsa.
Com base nessas informações, julgue o seguinte item.
Testes de hipótese nulas com probabilidade de erro de tipo II muito pequenos são muito significativos para provar a verdade da hipótese nula.
Provas
Um modelo de regressão linear entre uma variável aleatória (dependente) e uma variável não aleatória X (independente) é definido por \( Y = \beta_0 + \beta_1 X + \varepsilon \), em que \( \varepsilon \), denominado erro aleatório, é uma variável aleatória independente de \( X \) com média \( E( \varepsilon) = 0 \) e desvio padrão \( Var( \varepsilon) = \sigma^2 \). Um modelo de regressão linear é essencialmente um modelo para a probabilidade condicional de Y com relação a X, denotada por P(Y|X); ele é chamado de simples se - for uma variável aleatória gaussiana. Fixando-se n valores \( X_1, X_2, \cdots, X_n \) para a variável independente X, pode-se definir n variáveis aleatórias \( Y_i = \beta_0 + \beta_1 X_i + \varepsilon_i \), com \( i =1, \cdots, n \). Pelo método dos mínimos quadrados, é possível obter estimadores \( \hat{ \beta_0} \) e \( \hat{ \beta_1} \) para os parâmetros \( \beta_0 \) e \( \beta_1 \) e definir o \( \hat{Y_i} = \hat{ \beta_0} + \hat{ \beta_1} X_i \) como o estimador para \( Y_i \). Nesse contexto, são definidos os erros, denominados resíduos, como \( Y_i - \hat{Y_i} = e_i \), a soma dos quadrados dos resíduos \( SQE = \sum_i e_i^2 \), a soma dos quadrados totais e a soma dos quadrados totais \( SQT = \sum_i ( Y_i - \bar{Y})^2 \) e a soma dos quadrados de regressão \( SQR = \sum_i ( \hat{Y_i} - \bar{Y})^2 \), com \( \bar{Y} = \sum_i Y_i/n \).
Com base nessas informações, julgue o próximo item, considerando uma variável T, com média nula e desvio padrão unitário, definida por uma distribuição t de Student com 30 graus de liberdade, que tenha o seguinte intervalo com probabilidade de 0,95: \( P(−2,042 < 1 < 2,042) = 0,95. \)
O coeficiente de determinação para um modelo de regressão linear é definido como r2= (SQT − SQE)/SQT e sua raiz quadrada corresponde ao coeficiente de correlação linear entre as variáveis Y e X .
Provas
Um modelo de regressão linear entre uma variável aleatória (dependente) e uma variável não aleatória X (independente) é definido por \( Y = \beta_0 + \beta_1 X + \varepsilon \), em que \( \varepsilon \), denominado erro aleatório, é uma variável aleatória independente de \( X \) com média \( E( \varepsilon) = 0 \) e desvio padrão \( Var( \varepsilon) = \sigma^2 \). Um modelo de regressão linear é essencialmente um modelo para a probabilidade condicional de Y com relação a X, denotada por P(Y|X); ele é chamado de simples se - for uma variável aleatória gaussiana. Fixando-se n valores \( X_1, X_2, \cdots, X_n \) para a variável independente X, pode-se definir n variáveis aleatórias \( Y_i = \beta_0 + \beta_1 X_i + \varepsilon_i \), com \( i =1, \cdots, n \). Pelo método dos mínimos quadrados, é possível obter estimadores \( \hat{ \beta_0} \) e \( \hat{ \beta_1} \) para os parâmetros \( \beta_0 \) e \( \beta_1 \) e definir o \( \hat{Y_i} = \hat{ \beta_0} + \hat{ \beta_1} X_i \) como o estimador para \( Y_i \). Nesse contexto, são definidos os erros, denominados resíduos, como \( Y_i - \hat{Y_i} = e_i \), a soma dos quadrados dos resíduos \( SQE = \sum_i e_i^2 \), a soma dos quadrados totais e a soma dos quadrados totais \( SQT = \sum_i ( Y_i - \bar{Y})^2 \) e a soma dos quadrados de regressão \( SQR = \sum_i ( \hat{Y_i} - \bar{Y})^2 \), com \( \bar{Y} = \sum_i Y_i/n \).
Com base nessas informações, julgue o próximo item, considerando uma variável T, com média nula e desvio padrão unitário, definida por uma distribuição t de Student com 30 graus de liberdade, que tenha o seguinte intervalo com probabilidade de 0,95: \( P(−2,042 < 1 < 2,042) = 0,95. \)
Um estimador não viciado para a variância de \( \hat{ \beta_i} \) é obtido pela variância amostral dada por \( S^2 = SQE/ [n -2) \sum_i ( X_i - \bar{X})^2 ] \), em que \( \bar{X} = \sum_i X_i /n \) e a variável centralizada de \( \hat{ \beta_i} \), normalizada por , tem uma distribuição t de Student com − 1 graus de liberdade.
Provas
Um modelo de regressão linear entre uma variável aleatória (dependente) e uma variável não aleatória X (independente) é definido por \( Y = \beta_0 + \beta_1 X + \varepsilon \), em que \( \varepsilon \), denominado erro aleatório, é uma variável aleatória independente de \( X \) com média \( E( \varepsilon) = 0 \) e desvio padrão \( Var( \varepsilon) = \sigma^2 \). Um modelo de regressão linear é essencialmente um modelo para a probabilidade condicional de Y com relação a X, denotada por P(Y|X); ele é chamado de simples se - for uma variável aleatória gaussiana. Fixando-se n valores \( X_1, X_2, \cdots, X_n \) para a variável independente X, pode-se definir n variáveis aleatórias \( Y_i = \beta_0 + \beta_1 X_i + \varepsilon_i \), com \( i =1, \cdots, n \). Pelo método dos mínimos quadrados, é possível obter estimadores \( \hat{ \beta_0} \) e \( \hat{ \beta_1} \) para os parâmetros \( \beta_0 \) e \( \beta_1 \) e definir o \( \hat{Y_i} = \hat{ \beta_0} + \hat{ \beta_1} X_i \) como o estimador para \( Y_i \). Nesse contexto, são definidos os erros, denominados resíduos, como \( Y_i - \hat{Y_i} = e_i \), a soma dos quadrados dos resíduos \( SQE = \sum_i e_i^2 \), a soma dos quadrados totais e a soma dos quadrados totais \( SQT = \sum_i ( Y_i - \bar{Y})^2 \) e a soma dos quadrados de regressão \( SQR = \sum_i ( \hat{Y_i} - \bar{Y})^2 \), com \( \bar{Y} = \sum_i Y_i/n \).
Com base nessas informações, julgue o próximo item, considerando uma variável T, com média nula e desvio padrão unitário, definida por uma distribuição t de Student com 30 graus de liberdade, que tenha o seguinte intervalo com probabilidade de 0,95: \( P(−2,042 < 1 < 2,042) = 0,95. \)
Para um modelo de regressão que não seja simples, a soma dos resíduos não será nula.
Provas
Um modelo de regressão linear entre uma variável aleatória (dependente) e uma variável não aleatória X (independente) é definido por \( Y = \beta_0 + \beta_1 X + \varepsilon \), em que \( \varepsilon \), denominado erro aleatório, é uma variável aleatória independente de \( X \) com média \( E( \varepsilon) = 0 \) e desvio padrão \( Var( \varepsilon) = \sigma^2 \). Um modelo de regressão linear é essencialmente um modelo para a probabilidade condicional de Y com relação a X, denotada por P(Y|X); ele é chamado de simples se - for uma variável aleatória gaussiana. Fixando-se n valores \( X_1, X_2, \cdots, X_n \) para a variável independente X, pode-se definir n variáveis aleatórias \( Y_i = \beta_0 + \beta_1 X_i + \varepsilon_i \), com \( i =1, \cdots, n \). Pelo método dos mínimos quadrados, é possível obter estimadores \( \hat{ \beta_0} \) e \( \hat{ \beta_1} \) para os parâmetros \( \beta_0 \) e \( \beta_1 \) e definir o \( \hat{Y_i} = \hat{ \beta_0} + \hat{ \beta_1} X_i \) como o estimador para \( Y_i \). Nesse contexto, são definidos os erros, denominados resíduos, como \( Y_i - \hat{Y_i} = e_i \), a soma dos quadrados dos resíduos \( SQE = \sum_i e_i^2 \), a soma dos quadrados totais e a soma dos quadrados totais \( SQT = \sum_i ( Y_i - \bar{Y})^2 \) e a soma dos quadrados de regressão \( SQR = \sum_i ( \hat{Y_i} - \bar{Y})^2 \), com \( \bar{Y} = \sum_i Y_i/n \).
Com base nessas informações, julgue o próximo item, considerando uma variável T, com média nula e desvio padrão unitário, definida por uma distribuição t de Student com 30 graus de liberdade, que tenha o seguinte intervalo com probabilidade de 0,95: \( P(−2,042 < 1 < 2,042) = 0,95. \)
Para um modelo de regressão linear, vale a relação linear \( E(Y) = \beta_0 + beta_1 X \) para a média \( E(Y) \) da variável .
Provas
Um modelo de regressão linear entre uma variável aleatória (dependente) e uma variável não aleatória X (independente) é definido por \( Y = \beta_0 + \beta_1 X + \varepsilon \), em que \( \varepsilon \), denominado erro aleatório, é uma variável aleatória independente de \( X \) com média \( E( \varepsilon) = 0 \) e desvio padrão \( Var( \varepsilon) = \sigma^2 \). Um modelo de regressão linear é essencialmente um modelo para a probabilidade condicional de Y com relação a X, denotada por P(Y|X); ele é chamado de simples se - for uma variável aleatória gaussiana. Fixando-se n valores \( X_1, X_2, \cdots, X_n \) para a variável independente X, pode-se definir n variáveis aleatórias \( Y_i = \beta_0 + \beta_1 X_i + \varepsilon_i \), com \( i =1, \cdots, n \). Pelo método dos mínimos quadrados, é possível obter estimadores \( \hat{ \beta_0} \) e \( \hat{ \beta_1} \) para os parâmetros \( \beta_0 \) e \( \beta_1 \) e definir o \( \hat{Y_i} = \hat{ \beta_0} + \hat{ \beta_1} X_i \) como o estimador para \( Y_i \). Nesse contexto, são definidos os erros, denominados resíduos, como \( Y_i - \hat{Y_i} = e_i \), a soma dos quadrados dos resíduos \( SQE = \sum_i e_i^2 \), a soma dos quadrados totais e a soma dos quadrados totais \( SQT = \sum_i ( Y_i - \bar{Y})^2 \) e a soma dos quadrados de regressão \( SQR = \sum_i ( \hat{Y_i} - \bar{Y})^2 \), com \( \bar{Y} = \sum_i Y_i/n \).
Com base nessas informações, julgue o próximo item, considerando uma variável T, com média nula e desvio padrão unitário, definida por uma distribuição t de Student com 30 graus de liberdade, que tenha o seguinte intervalo com probabilidade de 0,95: \( P(−2,042 < 1 < 2,042) = 0,95. \)
Na análise de adequação do modelo, é fundamental verificar se a variância dos resíduos não depende da variável
Provas
Caderno Container