Todas as árvores de decisão têm alta variância, mas quando as combinamos todas em paralelo, então a variância resultante é baixa, uma vez que cada árvore de decisão fica perfeitamente treinada com esses dados de amostra particulares e, portanto, o output não depende de uma árvore de decisão, mas de múltiplas árvores de decisão. No caso de um problema de classificação, o resultado final é obtido utilizando o classificador de votação maioritária. No caso de um problema de regressão, o resultado final é a média de todos os resultados. Esta parte é Aggregation.
A Random Forest é uma técnica de conjunto capaz de realizar tarefas de regressão e classificação com o uso de árvores de decisão múltipla e uma técnica chamada Bootstrap and Aggregation, vulgarmente conhecida como ensacamento. A ideia básica por detrás disto é combinar árvores de decisão múltipla na determinação do resultado final, em vez de confiar em árvores de decisão individuais.
A Random Forest tem árvores de decisão múltipla como modelos de aprendizagem base. Realizamos aleatoriamente a amostragem em fila e amostramos a partir do conjunto de dados, formando conjuntos de dados de amostra para cada modelo. Esta parte chama-se Bootstrap.
Precisamos de abordar a técnica de regressão de Floresta Aleatória como qualquer outra técnica de aprendizagem de máquinas
- Desenhar uma questão ou dados específicos e obter a fonte para determinar os dados necessários.
 - Definir todas as anomalias notáveis e pontos de dados em falta que possam ser necessários para atingir os dados necessários.
 - Criar um modelo de aprendizagem da máquina
 - Definir o modelo de base que se pretende atingir
 - Treinar o modelo de aprendizagem da máquina de dados.
 - Prover uma visão do modelo com 
test data - Agora compare as métricas de desempenho tanto do 
test datacomo dopredicted datado modelo. - se não satisfizer as suas expectativas, pode tentar melhorar o seu modelo em conformidade ou datar os seus dados ou utilizar outra técnica de modelagem de dados.
 - Nesta fase interpreta os dados que obteve e informa em conformidade.
 
li>Certifique-se de que os dados estão num formato acessível, senão converte-os para o formato requerido.
Vai utilizar uma técnica de amostra semelhante no exemplo abaixo.
Exemplo
Below é uma implementação passo a passo da Rando Forest Regression.
P>Passo 1 : Importar as bibliotecas necessárias.
>br>
/p>
>br>>>/p>
importnumpy as np  importmatplotlib.pyplot as plt  importpandas as pd  br>>>/div>
/p>
>br>>/p>
data =pd.read_csv('Salaries.csv')  print(data)  
br>passo 3 : Seleccione todas as linhas e coluna 1 do conjunto de dados para x e todas as linhas e coluna 2 como y
>/p>p>
x = data.iloc.values print(x) y = data.iloc.values 
br>>
br>>passo 4 : Adaptar o regressor florestal aleatório ao conjunto de dados
>/p>
>/p>
fromsklearn.ensemble importRandomForestRegressor      regressor =RandomForestRegressor(n_estimators =100, random_state =0)    regressor.fit(x, y) br>>>/div>
br>passo 5 : Previsão de um novo resultado
/p>
>/p>
Y_pred =regressor.predict(np.array().reshape(1, 1))  /p>
>br>>/p>
/div>
  X_grid =np.arange(min(x), max(x), 0.01)    X_grid =X_grid.reshape((len(X_grid), 1))    plt.scatter(x, y, color ='blue')    plt.plot(X_grid, regressor.predict(X_grid),  color ='green')  plt.title('Random Forest Regression')  plt.xlabel('Position level')  plt.ylabel('Salary')  plt.show()>br>>>/div>