오늘은 redis dashboard로 사용하기 위해서

Ubuntu에 Grafana를 설치하고 

접속되는지까지 확인해보도록 하겠습니다.

(윈도우는 넘 어렵네요 ^___^, 하긴 했는데 플러그인이 잘 안됐어요...

그냥 .msi 다운받고 next만 눌러주고, http://localhost:3000 접속만하면 끝.)

 

 


1. Grafana 설치

https://grafana.com/grafana/download?platform=windows

 

Download Grafana | Grafana Labs

Overview of how to download and install different versions of Grafana on different operating systems.

grafana.com

 

 

위 그림대로 "Download the installer" 선택하시고 명령어를 수행해보겠습니다.

sudo apt-get install -y adduser libfontconfig1
wget https://dl.grafana.com/enterprise/release/grafana-enterprise_10.0.3_amd64.deb
sudo dpkg -i grafana-enterprise_10.0.3_amd64.deb

 

2. 서비스 실행

sudo service grafana-server start
  • ID: admin
  • PW: admin
  • http://localhost:3000 으로 접속

 

3. 서비스 상태 확인

sudo service grafana-server status

 

'MLOps' 카테고리의 다른 글

Meta에서 더 가벼운 LLaMa2를 공개하다! LLaMa2 논문 리뷰  (0) 2023.07.25

안녕하세요.

Meta에서 2023.07.18 LLaMa2를 공개합니다.

지금은 공개일로부터 약 7일이 지났네요.

이제는 일주일이면 많이 늦어진 상황이 되고 있습니다. 

세상은 정말 너무 빠르게 흘러가고 있기 때문에 놓치면 안됩니다. 

 

오늘도 간랸한 논문 리뷰 남겨보겠습니다.

 


Paper link https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/

 


 

LLaMa1과 달리 LLaMa2 달라진 점

  • 훈련 데이터 더 public 데이터로 늘렸고
  • 파라미터 7B, 13B, 34B, 70B
  • context length 문장길이 2배 늘렸고
  • GQA: Group Q&A 가능하고
  • Tockens 1조->2조 늘었고

 

성적

이런 변화 때문인지,

발표 공개 당일 1등,

현재 일주일이 지난 지금 3등을 유지하고 있습니다.

https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard?ref=t4eh0.com

한국회사, upstage, 는 그 바로 아래 4등을 유지하고 있습니다.

 

1등은 stability ai 회사로 UK회사인데 유명한 stable defusion을 공개했었죠!

 

 


 

Training
  • Meta's Research Super Cluster (NVIDIA A100s)
  • GPU max 2000 - 35days (500억)
  • LLaMa2 70B - A100 80GB, 1720320h

CO2 Emission

 


Fine-tuning
  • Supervised fine-tunning
    • 다양한 소스 긁어왔지만 다양성 부족
    • SI업체 질 좋은 데이터셋 사용하니 양 적어도 훨씬 좋다.
  • Reinforcement Learning with Human Feedback
    • 폭탄 만드는 법 알려줘 같은 질문에는 답을 하지 못하도록
    • 사람의 주입 정보로 모델의 행동을 align 시키는 학습단계
    • A,B 둘다 안전하다 > A만 안전하다 > B만 안전하다 > 둘 다 안전하지않다 등 답변 가능하도록
  • System Message for Multi-Turn Consistency
    • 초기 대화 잊어먹는 문제 있어서 ghost attention(GATT) 제안
    • 첫 질문, 마지막 질문을 제외한 모든 메세지는 loss 0으로 처리, 첫 메세지 오래 유지될 수 있도록

'MLOps' 카테고리의 다른 글

Ubuntu에서 Grafana 설치하는 방법  (0) 2023.07.28

+ Recent posts