2024/03/29 6

[GPT] ConversationSummaryBufferMemory

ConversationSummaryBufferMemory 메세지를 저장하다가 Token 기준으로 최대치를 넘어가면 이전 대화를 요약해서 저장 [결과] {'history': [HumanMessage(content="Hi I'm Hong, I live in South Korea"), AIMessage(content='Wow that is so cool!')]} 만약 token 값이 max_token_limit 를 초과할 경우 SystemMessage 가 새롭게 생성되면서 이전 대화내용을 요약하여 메세지에 저장 [결과값] {'history': [SystemMessage(content='The human introduces themselves as Hong from South Korea.'), AIMessage..

python 2024.03.29

[GPT] ConversationBufferMemory

ConversationBufferMemory ConversationBufferMemory는 메시지를 저장한 다음 변수에서 메시지를 추출합니다. 단순히 이전 대화 내용 전체를 저장 대화 내용이 길어질수록 메모리도 계속 커져서 비효율적 [결과] {'history': 'Human: Hi!\nAI: How are you?'} ConversationBufferMemory(return_messages=True)를 이용하여 결과를 문자열이 아닌 리스트 형태로 받을수 있음 [chat model 사용시 유용] [결과] {'history': [HumanMessage(content='Hi!'), AIMessage(content='How are you?')]}

python 2024.03.29