Джон Мюллер, сотрудник службы качества поиска Google, рассказал об особенностях обработки JavaScript-ресурсов, AJAX и Progressive Web Apps. Он дал несколько рекомендаций, отметив их актуальность на ближайшее будущее:
- использование клоакинга для обмана Googlebot – плохая идея. Привлечь пользователей можно благодаря технологиям feature detection и progressive enhancement. Для правильного отображения контента при редиректе с браузера – скрипты polyfill;
- для нескольких URL и отображения каноничного адреса прописывают rel=canonical;
- устаревший вариант сканирования AJAX не подходит для современных сайтов;
- символ "#" плохо индексируется, лучше им не злоупотреблять;
- сканер Google позволяет проверить вид сайта для Googlebot;
- запрашиваемые источники должны быть открыты для индексации в robots.txt;
- количество Java-файлов и прочих встроенных ресурсов в расчёте на страницу должно быть ограничено;
- Java подходит для работы с тайтлами, метаописаниями и метатегами и др.;
- помните, что JavaScript применяют не все поисковики.