OUR + YOUR SPACE

  • Home
  • Tag
  • MediaLog
  • LocationLog
  • Guestbook
  • Admin
  • Write

SQLiteCache 1

[GPT] Caching

캐싱을 사용하면 언어모델의 응답을 저장할 수 있음 이후 동일 질문을 받을경우 언어모델에 질의를 하지 않고 캐싱된 답변을 가져옴 set_llm_cache 새 LLM 캐시 설정, 이전 값 덮어쓰기(있는 경우) 캐시 종류 InMemoryCache: 메모리를 이용하여 캐시를 저장. 서버 재실행시 캐싱된 내용이 사라짐 SQLite Cache: SQLite cache를 이용하여 캐시를 저장 그외에도 여러가지의 캐시가 있음 https://python.langchain.com/docs/integrations/llms/llm_caching#in-memory-cache LLM Caching integrations | 🦜️🔗 Langchain This notebook covers how to cache results of ..

python 2024.03.28
이전
1
다음
더보기
250x250
프로필사진

  • 분류 전체보기 (486)
    • 코틀린+안드로이드 (17)
    • 앱 어플 (8)
    • graphql + flutter (23)
    • python (59)
    • django (11)
    • javascript (24)
    • ES6 (19)
    • react (0)
    • CSS (0)
    • CI4 (56)
    • 시사 유튜브 채널 (267)

Tag

LCEL, chain, Flutter, ConversationSummaryBufferMemory, 시사, 보수, ES6, MessagesPlaceholder, 중도, 안드로이드, RAG, IOS, 배포, 중보, 유튜브, 진보, 진도, javascript, mongodb, ChatPromptTemplate,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바