Обойти ограничение в 1000 страниц
никак, но можно поюзать то что гугл сам же и предоставляет для обхода самого себя B)
Для начала оффициальный
FAQ:
_http://
code.google.com/intl/ru/apis/soapsearch/reference.html
А теперь кратенько что мы можем поюзать в своих целях
Самое банальное - парсить с заданием доменной принадлежности, либо языка:
ЗАПРОС site:com
ЗАПРОС site:net
ЗАПРОС site и т.д.
В тоже время такая конструкция:
ЗАПРОС site:*com
Даст нам com'овские сайтики без дефисов в имени домена

А такая:
ЗАПРОС site:com -site:*com
Наоборот с дефисами))
А так:
site:com/*
site:com/*/*
Можно поиграть с количеством директорий, присутствующих в адресе
Так же мы можем разделить выдачу по субдоменам на www.domain.any и domain.any:
ЗАПРОС inurl:"www."
ЗАПРОС -inurl:"www."
Так же можно варировать выдачу поставляя различные комбинации в inurl:
ЗАПРОС inurl:"any"
Но следует помнить что гугля, ограничивает выдачу с использованием этого оператора (да-да

).
На это всегда можно смекнуть и сделать запросы примерные этим:
-intext:"any"
-intitle:"any"
Не менее интересен оператор daterange, при помощи которого мы спарсим выдачу по дате (диапозон по Юлианскому календарю):
daterange:2454000-2454000
Остальные хитрости можно легко придумать почитав
хелп гугля данный выше
