Зачем Boost Spirit lex зависает вместо ошибки разбора? - PullRequest
0 голосов
/ 29 августа 2018

Я долгое время не работал с boost :: spirit и обратно. И застрял в простом случае (о боже, иногда я хочу убить эту библиотеку ... почему, почему, почему такая простая задача настолько сложна с boost).

#include <iostream>
#include <string>

#include <boost/bind.hpp>
#include <boost/ref.hpp>

#include <boost/spirit/include/qi.hpp>
#include <boost/spirit/include/lex_lexertl.hpp>
#include <boost/spirit/include/phoenix.hpp>

namespace bs = boost::spirit;
namespace lex = boost::spirit::lex;
namespace qi = boost::spirit::qi;
namespace phx = boost::phoenix;

//---------------------------------------------------------------------------------
// configuration

using base_iterator_type = std::string::iterator;
using token_type = lex::lexertl::token<base_iterator_type>;
using lexer_type = lex::lexertl::lexer<token_type>;

//---------------------------------------------------------------------------------

template <typename Lexer>
struct cpp_tokens : lex::lexer<Lexer>
{
    cpp_tokens()
    {
        class_ = "class";
        identifier = "[a-zA-Z_][a-zA-Z0-9_]*";

        this->self += class_ | identifier;
        this->self("WS") = lex::token_def<>("[ \\t]+");
    }

    lex::token_def<> class_;
    lex::token_def<std::string> identifier;
};

using cpp_lex = cpp_tokens<lexer_type>;
using cpp_iterator = cpp_lex::iterator_type;

//---------------------------------------------------------------------------------

template <typename Iterator, typename Lexer>
struct cpp_grammar_impl : bs::qi::grammar<Iterator, bs::qi::in_state_skipper<Lexer>>
{
    template <typename TokenDef>
    cpp_grammar_impl(TokenDef const& tok) : cpp_grammar_impl::base_type(program, "program")
    {
        program = tok.identifier >> tok.class_;
    }

private:
    using skipper_type = bs::qi::in_state_skipper<Lexer>;
    using simple_rule = qi::rule<Iterator, skipper_type>;

    simple_rule program;
};

using cpp_grammar = cpp_grammar_impl<cpp_iterator, cpp_lex::lexer_def>;

//---------------------------------------------------------------------------------

int main()
{
    std::string str("111 class");

    cpp_lex cppLexer;
    cpp_grammar cppGrammar(cppLexer);

    auto it = str.begin();
    cpp_iterator iter = cppLexer.begin(it, str.end());
    cpp_iterator end = cppLexer.end();

    bool r = qi::phrase_parse(iter, end, cppGrammar, bs::qi::in_state("WS")[cppLexer.self]);

    if (r && iter == end)
    {
        std::cout << "-------------------------\n";
        std::cout << "Parsing succeeded\n";
        std::cout << "-------------------------\n";
    }
    else
    {
        std::string rest(iter, end);
        std::cout << "-------------------------\n";
        std::cout << "Parsing failed\n";
        std::cout << "stopped at: \"" << rest << "\"\n";
        std::cout << "-------------------------\n";
    }

    std::cout << "Bye... :-) \n\n";
}

Я ожидал ошибки синтаксического анализа, но в приведенном выше примере процессор boost :: spirit завис и обработал всю память. Пример на - Coliru

Что я делаю не так и как это исправить?

1 Ответ

0 голосов
/ 30 августа 2018

Используя отладчик, вы легко обнаружите, что синтаксический анализ не зависает.

Вместо этого это линия

  std::string rest(iter, end);

это висит. Я полагаю, это больше похоже на UB, потому что итераторы iter и end разыменовывают не элементы символов, а токены.

Итак, самое простое решение - использовать базовые итераторы:

   std::string rest(it, str.end());

Live On Coliru

#include <boost/spirit/include/lex_lexertl.hpp>
#include <boost/spirit/include/qi.hpp>
#include <iostream>
#include <string>

namespace lex = boost::spirit::lex;
namespace qi = boost::spirit::qi;

//---------------------------------------------------------------------------------
// configuration

using base_iterator_type = std::string::iterator;
using token_type = lex::lexertl::token<base_iterator_type>;
using lexer_type = lex::lexertl::lexer<token_type>;

//---------------------------------------------------------------------------------

template <typename Lexer> struct cpp_tokens : lex::lexer<Lexer> {
    cpp_tokens() {
        class_ = "class";
        identifier = "[a-zA-Z_][a-zA-Z0-9_]*";

        this->self += class_ | identifier;
        this->self("WS") = lex::token_def<>("[ \\t]+");
    }

    lex::token_def<> class_;
    lex::token_def<std::string> identifier;
};

using cpp_lex = cpp_tokens<lexer_type>;
using cpp_iterator = cpp_lex::iterator_type;

//---------------------------------------------------------------------------------

template <typename Iterator, typename Lexer>
struct cpp_grammar_impl : qi::grammar<Iterator, qi::in_state_skipper<Lexer> > {
    template <typename TokenDef>
    cpp_grammar_impl(TokenDef const &tok) : cpp_grammar_impl::base_type(program, "program") {
        program = tok.identifier >> tok.class_;
    }

  private:
    using skipper_type = qi::in_state_skipper<Lexer>;
    using simple_rule = qi::rule<Iterator, skipper_type>;

    simple_rule program;
};

using cpp_grammar = cpp_grammar_impl<cpp_iterator, cpp_lex::lexer_def>;

//---------------------------------------------------------------------------------

int main() {
    std::string str("111 class");

    cpp_lex cppLexer;
    cpp_grammar cppGrammar(cppLexer);

    auto it = str.begin();
    cpp_iterator iter = cppLexer.begin(it, str.end());
    cpp_iterator end = cppLexer.end();

    bool r = qi::phrase_parse(iter, end, cppGrammar, qi::in_state("WS")[cppLexer.self]);

    if (r && iter == end) {
        std::cout << "-------------------------\n";
        std::cout << "Parsing succeeded\n";
        std::cout << "-------------------------\n";
    } else {
        std::string rest(it, str.end());
        std::cout << "-------------------------\n";
        std::cout << "Parsing failed\n";
        std::cout << "stopped at: \"" << rest << "\"\n";
        std::cout << "-------------------------\n";
    }

    std::cout << "Bye... :-) \n\n";
}

Печать:

-------------------------
Parsing failed
stopped at: "111 class"
-------------------------
Bye... :-) 
...