GeeksforGeeks

Todas as árvores de decisão têm alta variância, mas quando as combinamos todas em paralelo, então a variância resultante é baixa, uma vez que cada árvore de decisão fica perfeitamente treinada com esses dados de amostra particulares e, portanto, o output não depende de uma árvore de decisão, mas de múltiplas árvores de decisão. No caso de um problema de classificação, o resultado final é obtido utilizando o classificador de votação maioritária. No caso de um problema de regressão, o resultado final é a média de todos os resultados. Esta parte é Aggregation.

A Random Forest é uma técnica de conjunto capaz de realizar tarefas de regressão e classificação com o uso de árvores de decisão múltipla e uma técnica chamada Bootstrap and Aggregation, vulgarmente conhecida como ensacamento. A ideia básica por detrás disto é combinar árvores de decisão múltipla na determinação do resultado final, em vez de confiar em árvores de decisão individuais.
A Random Forest tem árvores de decisão múltipla como modelos de aprendizagem base. Realizamos aleatoriamente a amostragem em fila e amostramos a partir do conjunto de dados, formando conjuntos de dados de amostra para cada modelo. Esta parte chama-se Bootstrap.

Precisamos de abordar a técnica de regressão de Floresta Aleatória como qualquer outra técnica de aprendizagem de máquinas

  • Desenhar uma questão ou dados específicos e obter a fonte para determinar os dados necessários.
  • li>Certifique-se de que os dados estão num formato acessível, senão converte-os para o formato requerido.

  • Definir todas as anomalias notáveis e pontos de dados em falta que possam ser necessários para atingir os dados necessários.
  • Criar um modelo de aprendizagem da máquina
  • Definir o modelo de base que se pretende atingir
  • Treinar o modelo de aprendizagem da máquina de dados.
  • Prover uma visão do modelo com test data
  • Agora compare as métricas de desempenho tanto do test data como do predicted data do modelo.
  • se não satisfizer as suas expectativas, pode tentar melhorar o seu modelo em conformidade ou datar os seus dados ou utilizar outra técnica de modelagem de dados.
  • Nesta fase interpreta os dados que obteve e informa em conformidade.

Vai utilizar uma técnica de amostra semelhante no exemplo abaixo.
Exemplo
Below é uma implementação passo a passo da Rando Forest Regression.

P>Passo 1 : Importar as bibliotecas necessárias.

>br>

/p>

>br>>>/p>

>br>

importnumpy as np
importmatplotlib.pyplot as plt
importpandas as pd

br>>>/div>



p>Etapa 2 : Importar e imprimir o conjunto de dados

/p>

>br>>/p>

>br>

data =pd.read_csv('Salaries.csv')
print(data)



br>passo 3 : Seleccione todas as linhas e coluna 1 do conjunto de dados para x e todas as linhas e coluna 2 como y

>/p>p>

>br>

x = data.iloc.values
print(x)
y = data.iloc.values



br>>br>>passo 4 : Adaptar o regressor florestal aleatório ao conjunto de dados

>/p>

>/p>

br>

fromsklearn.ensemble importRandomForestRegressor
regressor =RandomForestRegressor(n_estimators =100, random_state =0)
regressor.fit(x, y)

br>>>/div>



br>passo 5 : Previsão de um novo resultado

/p>

>/p>

Y_pred =regressor.predict(np.array().reshape(1, 1))



p>passo 6 : Visualização do resultado

div>

/p>

>br>>/p>

/div>

X_grid =np.arange(min(x), max(x), 0.01)
X_grid =X_grid.reshape((len(X_grid), 1))
plt.scatter(x, y, color ='blue')
plt.plot(X_grid, regressor.predict(X_grid),
color ='green')
plt.title('Random Forest Regression')
plt.xlabel('Position level')
plt.ylabel('Salary')

plt.show()

>br>>>/div>



Etiquetas de artigos :

Etiquetas de prática :

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *