В свободное время я работал над лексером Lua fslex, используя руководство ocamllex в качестве справки.
Я ударил несколько препятствий, пытаясь правильно разметить длинные строки. «Длинные строки» ограничены токенами '[' ('=')* '['
и ']' ('=')* ']'
; количество знаков =
должно быть одинаковым.
В первой реализации лексер, казалось, не распознавал шаблоны [[
, производя два токена LBRACKET
, несмотря на правило самого длинного соответствия, тогда как [=[
и вариации распознавались правильно. Кроме того, регулярное выражение не гарантировало использование правильного закрывающего токена, останавливаясь на первом захвате ']' ('=')* ']'
, независимо от фактической длинной строки "level". Кроме того, fslex, похоже, не поддерживает конструкции as в регулярных выражениях.
let lualongstring = '[' ('=')* '[' ( escapeseq | [^ '\\' '[' ] )* ']' ('=')* ']'
(* ... *)
| lualongstring { (* ... *) }
| '[' { LBRACKET }
| ']' { RBRACKET }
(* ... *)
Я пытался решить проблему с помощью другого правила в лексере:
rule tokenize = parse
(* ... *)
| '[' ('=')* '[' { longstring (getLongStringLevel(lexeme lexbuf)) lexbuf }
(* ... *)
and longstring level = parse
| ']' ('=')* ']' { (* check level, do something *) }
| _ { (* aggregate other chars *) }
(* or *)
| _ {
let c = lexbuf.LexerChar(0);
(* ... *)
}
Но я застрял по двум причинам: во-первых, я не думаю, что могу, так сказать, «протолкнуть» токен к следующему правилу, когда закончу читать длинную строку; во-вторых, мне не нравится идея чтения char по char до тех пор, пока не будет найден правильный закрывающий токен, что делает текущий дизайн бесполезным.
Как я могу токенизировать длинные строки Lua в fslex? Спасибо за чтение.