ファインチューニングを行なっているのですが、今までvgg16の全結合層のみをいじりながら畳み込み層はフリーズさせていました。しかし、一度この畳み込み層もフリーズせずに学習可能にしたところもともと80パーセントほどだった精度が一気に90パーセントぐらいまで跳ね上がりました。これは正常な学習ができている状態なのでしょうか?どうにも不安です。
転移学習において畳み込み層を学習可能にする事で精度が跳ね上がるなんてことはありえるのでしょうか?