link が取れてるなら、それを for で回して、Google のサイトをスクレイピングしたのと同じやり方で各サイトにアクセスしていけばよいと思います。
python
1import requests
2from bs4 import BeautifulSoup
34# 検索する。5keywd ='Python'6res = requests.get('https://www.google.co.jp/search?gl=jp&q={}'.format(keywd))7soup = BeautifulSoup(res.text,'html.parser')89# 検索10titles =[]11for tag in soup.select('.r'):12 titles.append(tag.text)1314#検索結果URL15links =[]16for tag in soup.find_all('cite'):17 links.append(tag.text)1819h2_list =[]20for link in links:21 res = requests.get(link)22 soup = BeautifulSoup(res.text,'html.parser')2324 h2_titles =[tag.text for tag in soup.find_all('h2')]25 h2_list.append(h2_titles)