Как расширить token_ids, чтобы принимать больше ключевых слов в библиотеке Boost :: wave - PullRequest
0 голосов
/ 25 октября 2019

Я работаю над задачей выделения синтаксиса с использованием библиотеки Boost / wave. Мы получаем токены, разыменовывая lex-token-iterator, а затем обрабатываем эти токены для пользовательского выделения.

В стандартной комплектации библиотека wave поставляется с лексером cpp, который выполняет итерацию по входным файлам C ++ и токенизирует ключевые слова,Но моя работа теперь включает в себя идентификацию файлов CUDA и токенизацию их с использованием того же механизма.

Я могу добавить ключевые слова CUDA в файл token_ids ( Идентификаторы токенов ), но что будетболее чистый способ сделать то же самое.

...