Страница ищет любой из определенного набора допустимых пользовательских агентов. Например,
import requests
from bs4 import BeautifulSoup as bs
r = requests.get('http://cvr.ac.in/home4/index.php/eee-sp-870859316/eeefaculty', headers = {'User-Agent': 'Chrome/80.0.3987.163'})
soup = bs(r.content, 'lxml')
print(soup.select('.item-page'))
Без этого вы получите ответ 406, а классы, которые вы ищете в html, отсутствуют.