Если вас интересуют только нелегальные символы внутри лексера, что-то простое может помочь вам:
grammar T;
@lexer::members {
public List<String> errors = new ArrayList<String>();
}
parse
: .* EOF
;
INT
: '0'..'9'+
;
WORD
: ('a'..'z' | 'A'..'Z')+
;
SPACE
: ' ' {$channel=HIDDEN;}
;
INVALID
: . {
errors.add("Invalid character: '" + $text + "' on line: " +
getLine() + ", index: " + getCharPositionInLine());
}
;
Как видите, принимаются только целые числа и слова ascii, все другие символы будут вызывать ошибку, добавляемую к List
внутри лексера. При разборе строки типа "abc 123 ? foo !"
с тестовым классом:
import org.antlr.runtime.*;
public class Main {
public static void main(String[] args) throws Exception {
TLexer lexer = new TLexer(new ANTLRStringStream("abc 123 ? foo !"));
CommonTokenStream tokens = new CommonTokenStream(lexer);
tokens.toString(); // dummy call to toString() which causes all tokens to be created
if(!lexer.errors.isEmpty()) {
for(String error : lexer.errors) {
System.out.println(error);
}
}
else {
TParser parser = new TParser(tokens);
parser.parse();
}
}
}
приведет к следующему выводу:
java -cp antlr-3.3.jar org.antlr.Tool T.g
javac -cp antlr-3.3.jar *.java
java -cp .:antlr-3.3.jar Main
Invalid character: '?' on line: 1, index: 9
Invalid character: '!' on line: 1, index: 15