[AI] #2. 대규모 언어 모델에 대한 새로운 위협: Many-shot Jailbreaking 04 Apr 2024 AI Dev [AI] #2. 대규모 언어 모델에 대한 새로운 위협: Many-shot Jailbreaking 최근 Anthropic, OpenAI, Google DeepMind가 개발한 대규모 언어 모델(LLM)을 대상으로 한 새로운 공격 방식, 'Many-shot Jailbreaking'(MSJ)이 공개됐습니다. 이 공격
[AI] #1. AI를 생각하게 만드는 프롬프트 03 Apr 2024 AI Dev [AI] #1. AI를 생각하게 만드는 프롬프트 이번에 소개할 연구에서는 LLM 에서 다음에 올 토큰을 더 잘 예측하기 위해 텍스트를 처리하는 동안 중간 독백을 통해 생각이나 근거를 생성하여 대규모 언어 모델에 추론을