Я бы еще добавил проверку на наличие дублей ключевых тегов (title, description, h1), верную обработку произвольных параметров (любая абракадабра, начинающаяся со знака
? (например,
?sdglkj), добавленная к урлу), нет ли мета-директив Robots, запрещающих индексацию ключевых страниц, внешние исходящие линки закрыты в noindex и снабжены rel="nofollow", уникальность контента и вообще еще очень-очень многое...
