forked from quantylab/rltrader
-
Notifications
You must be signed in to change notification settings - Fork 0
/
agent_custom.py
169 lines (145 loc) · 7 KB
/
agent_custom.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
import numpy as np
class Agent:
# 에이전트 상태가 구성하는 값 개수
STATE_DIM = 2 # 주식 보유 비율, 포트폴리오 가치 비율
# 매매 수수료 및 세금
TRADING_CHARGE = 0.00015 # 매수 또는 매도 수수료 0.015%
TRADING_TAX = 0.003 # 거래세 0.3%
# 행동
ACTION_BUY = 0 # 매수
ACTION_SELL = 1 # 매도
ACTION_HOLD = 2 # 홀딩
ACTIONS = [ACTION_BUY, ACTION_SELL] # 인공 신경망에서 확률을 구할 행동들
NUM_ACTIONS = len(ACTIONS) # 인공 신경망에서 고려할 출력값의 개수
def __init__(
self, environment, min_trading_unit=1, max_trading_unit=2,
delayed_reward_threshold=.05):
# Environment 객체
self.environment = environment # 현재 주식 가격을 가져오기 위해 환경 참조
# 최소 매매 단위, 최대 매매 단위, 지연보상 임계치
self.min_trading_unit = min_trading_unit # 최소 단일 거래 단위
self.max_trading_unit = max_trading_unit # 최대 단일 거래 단위
self.delayed_reward_threshold = delayed_reward_threshold # 지연보상 임계치
# Agent 클래스의 속성
self.initial_balance = 0 # 초기 자본금
self.balance = 0 # 현재 현금 잔고
self.num_stocks = 0 # 보유 주식 수
self.portfolio_value = 0 # balance + num_stocks * {현재 주식 가격}
self.base_portfolio_value = 0 # 직전 학습 시점의 PV
self.num_buy = 0 # 매수 횟수
self.num_sell = 0 # 매도 횟수
self.num_hold = 0 # 홀딩 횟수
self.immediate_reward = 0 # 즉시 보상
# Agent 클래스의 상태
self.ratio_hold = 0 # 주식 보유 비율
self.ratio_portfolio_value = 0 # 포트폴리오 가치 비율
def reset(self):
self.balance = self.initial_balance
self.num_stocks = 0
self.portfolio_value = self.initial_balance
self.base_portfolio_value = self.initial_balance
self.num_buy = 0
self.num_sell = 0
self.num_hold = 0
self.immediate_reward = 0
self.ratio_hold = 0
self.ratio_portfolio_value = 0
def set_balance(self, balance):
self.initial_balance = balance
def get_states(self):
self.ratio_hold = self.num_stocks / int(
self.portfolio_value / self.environment.get_price())
self.ratio_portfolio_value = self.portfolio_value / self.initial_balance
return (
self.ratio_hold,
self.ratio_portfolio_value
)
def decide_action(self, policy_network, sample, epsilon):
confidence = 0.
# 탐험 결정
if np.random.rand() < epsilon:
exploration = True
action = np.random.randint(self.NUM_ACTIONS) # 무작위로 행동 결정
else:
exploration = False
probs = policy_network.predict(sample) # 각 행동에 대한 확률
action = np.argmax(probs) if np.max(probs) > 0.1 else Agent.ACTION_HOLD
confidence = probs[action]
return action, confidence, exploration
def validate_action(self, action):
validity = True
if action == Agent.ACTION_BUY:
# 적어도 1주를 살 수 있는지 확인
if self.balance < self.environment.get_price() * (
1 + self.TRADING_CHARGE) * self.min_trading_unit:
validity = False
elif action == Agent.ACTION_SELL:
# 주식 잔고가 있는지 확인
if self.num_stocks <= 0:
validity = False
return validity
def decide_trading_unit(self, confidence):
if np.isnan(confidence):
return self.min_trading_unit
added_traiding = max(min(
int(confidence * (self.max_trading_unit - self.min_trading_unit)),
self.max_trading_unit-self.min_trading_unit
), 0)
return self.min_trading_unit + added_traiding
def act(self, action, confidence):
if not self.validate_action(action):
action = Agent.ACTION_HOLD
# 환경에서 현재 가격 얻기
curr_price = self.environment.get_price()
# 즉시 보상 초기화
self.immediate_reward = 0
# 매수
if action == Agent.ACTION_BUY:
# 매수할 단위를 판단
trading_unit = self.decide_trading_unit(confidence)
balance = self.balance - curr_price * (1 + self.TRADING_CHARGE) * trading_unit
# 보유 현금이 모자랄 경우 보유 현금으로 가능한 만큼 최대한 매수
if balance < 0:
trading_unit = max(min(
int(self.balance / (
curr_price * (1 + self.TRADING_CHARGE))), self.max_trading_unit),
self.min_trading_unit
)
# 수수료를 적용하여 총 매수 금액 산정
invest_amount = curr_price * (1 + self.TRADING_CHARGE) * trading_unit
self.balance -= invest_amount # 보유 현금을 갱신
self.num_stocks += trading_unit # 보유 주식 수를 갱신
self.num_buy += 1 # 매수 횟수 증가
self.immediate_reward = 1
# 매도
elif action == Agent.ACTION_SELL: # sell
# 매도할 단위를 판단
trading_unit = self.decide_trading_unit(confidence)
# 보유 주식이 모자랄 경우 가능한 만큼 최대한 매도
trading_unit = min(trading_unit, self.num_stocks)
# 매도
invest_amount = curr_price * (
1 - (self.TRADING_TAX + self.TRADING_CHARGE)) * trading_unit
self.num_stocks -= trading_unit # 보유 주식 수를 갱신
self.balance += invest_amount # 보유 현금을 갱신
self.num_sell += 1 # 매도 횟수 증가
self.immediate_reward = 1
# 홀딩
elif action == Agent.ACTION_HOLD:
self.num_hold += 1 # 홀딩 횟수 증가
self.immediate_reward = -1
# 포트폴리오 가치 갱신
self.portfolio_value = self.balance + curr_price * self.num_stocks
profitloss = (self.portfolio_value - self.base_portfolio_value) / self.base_portfolio_value
# 지연 보상 판단
if profitloss > self.delayed_reward_threshold:
delayed_reward = 1
# 목표 수익률 달성하여 기준 포트폴리오 가치 갱신
self.base_portfolio_value = self.portfolio_value
elif profitloss < -self.delayed_reward_threshold:
delayed_reward = 0
# 손실 기준치를 초과하여 기준 포트폴리오 가치 갱신
self.base_portfolio_value = self.portfolio_value
else:
delayed_reward = -1
return self.immediate_reward, delayed_reward