Табулирование прибылей и убытков для тестирования с использованием Bigquery - PullRequest
0 голосов
/ 19 мая 2019

У меня есть этот кадр данных Bigquery, где 1 в long_entry или short_entry представляет вход в сделку в то время с длинной / короткой позицией, соответствующей. В то время как 1 в long_exit или short_exit означает выход из сделки. Я хотел бы иметь 2 новых столбца, один из которых называется long_pnl, в котором представлены таблицы PnL, сгенерированные из отдельных длинных сделок, а другой - short_pnl, в котором представлены таблицы PnL, сгенерированные из отдельных коротких сделок.

Только одно сделка / позиция в любой момент времени для этого тестирования.

Ниже мой фрейм данных. Как мы видим, длинная сделка открыта 26.02.2017 и закрыта в 1/3/2019, а Pnl будет составлять $ 64,45, в то время как короткая сделка будет открыта 3/3/2019 и закрыта 03.05.2009 с pnl - $ 119,11 (убыток).

        date    price       long_entry  long_exit   short_entry short_exit
0   24/2/2019   4124.25           0          0           0              0
1   25/2/2019   4130.67           0          0           0              0
2   26/2/2019   4145.67           1          0           0              0
3   27/2/2019   4180.10           0          0           0              0
4   28/2/2019   4200.05           0          0           0              0
5   1/3/2019    4210.12           0          1           0              0
6   2/3/2019    4198.10           0          0           0              0
7   3/3/2019    4210.34           0          0           0              0
8   4/3/2019    4100.12           0          0           1              0
9   5/3/2019    4219.23           0          0           0              1

Я надеюсь получить такой вывод с другим столбцом для short_pnl:

        date    price       long_entry  long_exit   short_entry short_exit  long_pnl         
0   24/2/2019   4124.25           0          0           0             0    NaN  
1   25/2/2019   4130.67           0          0           0             0    NaN
2   26/2/2019   4145.67           1          0           0             0  64.45
3   27/2/2019   4180.10           0          0           0             0    NaN
4   28/2/2019   4200.05           0          0           0             0    NaN
5   1/3/2019    4210.12           0          1           0             0    NaN
6   2/3/2019    4198.10           0          0           0             0    NaN
7   3/3/2019    4210.34           0          0           0             0    NaN
8   4/3/2019    4100.12           0          0           1             0    NaN
9   5/3/2019    4219.23           0          0           0             1    NaN

1 Ответ

1 голос
/ 19 мая 2019

Ниже для BigQuery Standard SQL

#standardSQL
WITH temp1 AS (
  SELECT PARSE_DATE('%d/%m/%Y', dt) dt, CAST(price AS numeric) price, long_entry, long_exit, short_entry, short_exit
  FROM `project.dataset.table`
), temp2 AS (
  SELECT dt, price, long_entry, long_exit, short_entry, short_exit,
    SUM(long_entry) OVER(ORDER BY dt) + SUM(long_exit) OVER(ORDER BY dt ROWS BETWEEN UNBOUNDED PRECEDING AND 1 PRECEDING) long_grp,
    SUM(short_entry) OVER(ORDER BY dt) + SUM(short_exit) OVER(ORDER BY dt ROWS BETWEEN UNBOUNDED PRECEDING AND 1 PRECEDING) short_grp
  FROM temp1
)
SELECT dt, price, long_entry, long_exit, short_entry, short_exit,
  IF(long_entry = 0, NULL, 
    FIRST_VALUE(price) OVER(PARTITION BY long_grp ORDER BY dt DESC) - 
    LAST_VALUE(price) OVER(PARTITION BY long_grp ORDER BY dt DESC)
  ) long_pnl,
  IF(short_entry = 0, NULL, 
    LAST_VALUE(price) OVER(PARTITION BY short_grp ORDER BY dt DESC) - 
    FIRST_VALUE(price) OVER(PARTITION BY short_grp ORDER BY dt DESC)
  ) short_pnl
FROM temp2

Если применить выше к образцу данных в вашем вопросе

#standardSQL
WITH `project.dataset.table` AS (
  SELECT '24/2/2019' dt, 4124.25 price, 0 long_entry, 0 long_exit, 0 short_entry, 0 short_exit UNION ALL
  SELECT '25/2/2019', 4130.67, 0, 0, 0, 0 UNION ALL
  SELECT '26/2/2019', 4145.67, 1, 0, 0, 0 UNION ALL
  SELECT '27/2/2019', 4180.10, 0, 0, 0, 0 UNION ALL
  SELECT '28/2/2019', 4200.05, 0, 0, 0, 0 UNION ALL
  SELECT '1/3/2019', 4210.12, 0, 1, 0, 0 UNION ALL
  SELECT '2/3/2019', 4198.10, 0, 0, 0, 0 UNION ALL
  SELECT '3/3/2019', 4210.34, 0, 0, 0, 0 UNION ALL
  SELECT '4/3/2019', 4100.12, 0, 0, 1, 0 UNION ALL
  SELECT '5/3/2019', 4219.23, 0, 0, 0, 1 
), temp1 AS (
  SELECT PARSE_DATE('%d/%m/%Y', dt) dt, CAST(price AS numeric) price, long_entry, long_exit, short_entry, short_exit
  FROM `project.dataset.table`
), temp2 AS (
  SELECT dt, price, long_entry, long_exit, short_entry, short_exit,
    SUM(long_entry) OVER(ORDER BY dt) + SUM(long_exit) OVER(ORDER BY dt ROWS BETWEEN UNBOUNDED PRECEDING AND 1 PRECEDING) long_grp,
    SUM(short_entry) OVER(ORDER BY dt) + SUM(short_exit) OVER(ORDER BY dt ROWS BETWEEN UNBOUNDED PRECEDING AND 1 PRECEDING) short_grp
  FROM temp1
)
SELECT dt, price, long_entry, long_exit, short_entry, short_exit,
  IF(long_entry = 0, NULL, 
    FIRST_VALUE(price) OVER(PARTITION BY long_grp ORDER BY dt DESC) - 
    LAST_VALUE(price) OVER(PARTITION BY long_grp ORDER BY dt DESC)
  ) long_pnl,
  IF(short_entry = 0, NULL, 
    LAST_VALUE(price) OVER(PARTITION BY short_grp ORDER BY dt DESC) - 
    FIRST_VALUE(price) OVER(PARTITION BY short_grp ORDER BY dt DESC)
  ) short_pnl
FROM temp2
-- ORDER BY dt

результат будет

Row dt          price   long_entry  long_exit   short_entry short_exit  long_pnl    short_pnl    
1   2019-02-24  4124.25 0           0           0           0           null        null     
2   2019-02-25  4130.67 0           0           0           0           null        null     
3   2019-02-26  4145.67 1           0           0           0           64.45       null     
4   2019-02-27  4180.1  0           0           0           0           null        null     
5   2019-02-28  4200.05 0           0           0           0           null        null     
6   2019-03-01  4210.12 0           1           0           0           null        null     
7   2019-03-02  4198.1  0           0           0           0           null        null     
8   2019-03-03  4210.34 0           0           0           0           null        null     
9   2019-03-04  4100.12 0           0           1           0           null        -119.11  
10  2019-03-05  4219.23 0           0           0           1           null        null     

Я чувствую, что должно быть "более короткое" решение - но выше все еще достаточно хорошо, я думаю использовать

...