Seleniumでアクセスしてソースを取得してからbeautifulsoupでスクレイピングするほうが簡単だとおもいます。
python
1from selenium import webdriver
2from selenium.webdriver.chrome.options import Options
3from bs4 import BeautifulSoup
4
5options = webdriver.ChromeOptions()
6options.add_argument('--headless')
7options.add_argument('--no-sandbox')
8options.add_argument('--disable-dev-shm-usage')
9
10driver = webdriver.Chrome('chromedriver', options=options)
11driver.implicitly_wait(10)
12driver.get('アドレス')
13
14html = driver.page_source.encode('utf-8')
15
16driver.quit()
python
1soup = BeautifulSoup(html, "html.parser")
2res = [i.get_text(strip = True) for i in soup.find_all("div", class_ = "__shi_m_txt", text = "資格")]
サンプルにdivでclassが"__shi_m_txt"はないのと
これで取得しても「資格」しか取れないと思うのですが
追記
beautifulsoupの場合
python
1import requests
2from bs4 import BeautifulSoup
3import re
4
5url = 'https://shingakunet.com/gakko/SC003048/gakubugakka/00000000000160337/'
6
7r = requests.get(url)
8
9r.raise_for_status()
10
11soup = BeautifulSoup(r.content, 'html5lib')
12
13# 資格の下のテキスト取得
14t = "\n".join([re.sub("\s", "", i) for i in soup.find("span", class_ = "__shi_m_txt", text = "資格").parent.find_next_sibling("div", class_="__shi_gakkaDetail_cont").stripped_strings])
15# 資格のタグ(find)→親タグ(parent)→下の兄弟タグ(find_next_sibling)→前後の空白文字を除去したテキスト→文中の空白文字削除→結合
16
17# Webページと同じように、の後の改行を削除
18print(re.sub("、\n", "、", t))