強化学習と進化計算は、ゴールそのものは共通している。どちらも「試して結果を評価し、その結果を使ってもっと良い振る舞い・もっと良い解に近づく」という枠組みの中にある。したがって、目的レベルでは別世界の手法ではなく、同じ大きな学習ファミリーの中の別のやり方と位置づけられる。ただし、良くしていく手続きはかなり異なる。進化計算は多数の候補(個体)を同時に用意し、それぞれを実際に動かしてスコアを測り、スコアが高いものを「残す」ことで世代を進める。重要なのは、その個体がなぜ良かったのか、どの判断が効いたのかを細かく分析しなくても動く点である。良い個体を親として交叉や突然変異を行い、より良い設計図だけを次世代に渡す。つまり「どの個体が良いか」を決める仕組みである。一方、強化学習は基本的に一つのエージェントを育てる。エージェントは環境の中で行動し、その行動ごとに報酬を受け取り、経験をもとに自分の方策(状況に対してどの行動を選ぶか)を少しずつ書き換えていく。ここでは「どの行動がどの報酬に結びついたのか」を時間的にたどって割り当てること、いわゆる信用割当が核になる。これにより、同じエージェントが生きたまま上達していく。進化計算は幅広い探索に強く、強化学習は一つの方策をきめ細かく磨くのに強い。両者は対立関係ではなく、組み合わせることもできる。進化計算で良い方策候補を見つけ、強化学習でさらに洗練する、といった使い方が現実的に可能である。つまり、両者は「ねらいは似ているが、育て方と改善プロセスが違う手法」とまとめるのが正確である。