Skip to content

[20230910] Weekly AI ArXiv 만담 시즌2 - 25회차 #91

@jungwoo-ha

Description

@jungwoo-ha

Zoom: https://navercorp.zoom.us/j/92208940283

페이스북: https://www.facebook.com/weeklyaiarxivpage

News

ArXiv

  • Large Language Models as Optimizers
    • 세상 많은 문제는 최적화. 근데 gradient 정의가 안되는 최적화는 어떻게?
    • OPRO (Optimization by PROmpt): 자연어로 설명가능한 문제들은 LLM을 optimizer로 써서 해결해 보겠다.
    • Optimizer LLM 으로 instruction을 생성하고 Scorer LLM에 prompting 한다. 그렇게 하기 위해 meta-prompt를 도입
    • 메타프롬프트에는 meta-instruction, 솔루션-점수 pair, 문제 설명등이 포함되고 솔루션-점수가 계속 추가
    • 생성 프롬프트의 위치는 Q_begin, Q_end, A_begin 선택할 수 있는데 모델 상황에 따라
    • Linear regression, TSP, GSM8K 와 Big bench-Hard 위한 instruction 생성
    • 특이한 프롬프트 instruction 만들어짐
    • 솔루션 점수를 오름차순/내림차순, 생성 인스트럭션수, 스코어 단위 등 ablation도 많음
      image
      image
      image
      image
      image
      image

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions