🚀 PREDAQ 사용 가이드

로컬 파일 실시간 분석: 내 PC 파일을 AI와 함께! 💻

제 컴퓨터에 있는 코드나 문서를 PREDAQ으로 바로 분석하고 싶은데, 어떻게 하나요? 파일 내용이 바뀌면 AI도 바로 알 수 있나요? 🤔
AI
네, 환영합니다! PREDAQ의 ✨로컬 파일 실시간 분석✨ 기능을 사용하면 사용자의 PC에 있는 파일을 AI가 직접 읽고 분석할 수 있어요. 마치 AI와 함께 내 컴퓨터에서 작업하는 것과 같죠! 📁🤝

사용 방법은 간단해요:
  1. 채팅창 왼쪽 사이드바 하단의 ' 로컬 파일 첨부' 버튼을 클릭하세요.
  2. 분석하고 싶은 파일을 선택합니다. (여러 개 선택 가능!)
  3. 선택된 파일 목록이 표시되면, 평소처럼 AI에게 질문이나 요청을 하면 됩니다. AI는 첨부된 파일 내용을 바탕으로 답변해 줄 거예요.
주요 특징 및 팁:
  • 실시간 반영: 가장 멋진 점! 첨부된 파일의 내용이 변경되면(저장하면), 그 변경 사항이 실시간으로 AI에게 전달돼요. 파일을 수정하고 다시 첨부할 필요가 없답니다!
  • 지원 파일 형식: .txt, .c, .java, .py, .js, .html, .css, .md, .json, .csv 등 텍스트로 이루어진 거의 모든 파일을 지원해요. (이미지나 동영상 파일은 현재 지원하지 않아요 😅)
  • 개인 정보 보호: 안심하세요! 첨부된 파일 내용은 학습 데이터로 사용되거나 PREDAQ 서버에 저장되지 않아요. 오직 현재 대화 세션에서만 AI가 참고합니다. (단, '대화기록 저장' 기능을 사용하면 파일명과 내용이 대화의 일부로 기록될 수 있어요.)
  • 명확한 지시: 파일을 첨부한 후, AI에게 무엇을 원하는지 명확하게 알려주세요. 예를 들어, "첨부된 main.py 코드에서 버그를 찾아줘." 또는 "이 report.txt 문서를 세 줄로 요약해줘." 처럼요!

활용 예시:

  • 코드 분석 및 디버깅: "이 자바스크립트 코드(script.js 첨부)가 왜 제대로 동작하지 않는지 알려줘."
  • 문서 요약 및 정보 추출: "첨부된 회의록(meeting_notes.md 첨부)에서 주요 결정 사항만 뽑아줘."
  • 데이터 해석: "이 CSV 파일(sales_data.csv 첨부)의 판매 트렌드를 설명해줘."
  • 설정 파일 검토: "내 config.json 파일에 오류가 있는지 확인해줄래?"

컨텍스트 (Context): AI에게 똑똑한 길잡이를!

AI
다음은 AI를 내 비서처럼 똑똑하게 만드는 핵심 비법, 컨텍스트에 대해 알아볼까요?
'컨텍스트'요? 그게 뭔데요? AI랑 대화할 때 꼭 필요한 건가요? 🤔
AI
아주 좋은 질문이에요! 👍 컨텍스트는 쉽게 말해, AI에게 '미리 알려주는 배경지식'이나 '특별한 지침'이라고 생각하시면 돼요. 우리가 친구에게 중요한 이야기를 하기 전에 상황 설명을 해주는 것과 비슷하죠. 🗺️

왜 컨텍스트가 중요할까요?
  • 맞춤형 답변 유도: AI가 내 의도와 상황을 더 잘 이해하고, 내가 원하는 방향으로 답변하도록 이끌 수 있어요.
  • 전문성 부여: 특정 분야의 지식이나 회사 내부 용어 등을 컨텍스트로 제공하면, AI가 그 분야 전문가처럼 답변하게 만들 수 있죠.
  • 시간 절약: 반복적인 설명이나 지시사항을 컨텍스트에 저장해두면, 매번 입력할 필요 없이 AI가 알아서 적용해줘요.
컨텍스트를 잘 활용하면, AI가 단순한 챗봇을 넘어 나만의 맞춤형 AI 어시스턴트로 거듭날 수 있답니다! 🚀
와, 정말 유용하겠는데요! 그럼 PREDAQ에서 컨텍스트는 어떻게 만들고 사용할 수 있나요? 특별한 기능이라도 있나요? ✨
AI
물론이죠! PREDAQ의 컨텍스트 기능은 더욱 강력하고 유연하게 설계되었어요.
컨텍스트 활용법 A to Z
  • AI 역할 & 말투 설정: "너는 깐깐한 코드 리뷰어야. 내 코드의 문제점을 날카롭게 지적해줘."
  • 전문 지식 주입: 특정 기술 문서 내용을 컨텍스트로 주고, "이 문서를 기반으로 X 기술의 미래 전망을 설명해줘."
  • 작업 지침 명시: 보고서 템플릿이나 글쓰기 스타일 가이드를 컨텍스트로 제공하고, "이 가이드라인에 맞춰 블로그 글 초안을 작성해줘."
  • 개인화된 정보 활용: 내 업무 스타일, 자주 사용하는 용어, 이전 프로젝트 결과 등을 컨텍스트로 넣어두면 AI가 나를 더 잘 이해해요.
PREDAQ 컨텍스트만의 특별함!
  • 질문마다 실시간 변경: 대화 중에도 다음 질문에 맞춰 최적의 컨텍스트로 즉시 바꿀 수 있어요. 코드 분석 후 바로 마케팅 문구 작성 요청 시, 관련 컨텍스트로 스위칭!
  • 여러 컨텍스트 동시 조합: '회사 용어집' + '프로젝트 요구사항' + '고객 페르소나' 컨텍스트를 동시에 적용하면? 더욱 정교하고 상황에 맞는 답변을 얻을 수 있죠! 🧩
  • 체계적인 폴더 관리: 수많은 컨텍스트도 주제별, 프로젝트별 폴더로 깔끔하게 정리하고, 필요할 때 드래그 앤 드롭으로 쉽게 찾아 쓸 수 있어요. 📂

컨텍스트 활용 시나리오: 우주 탐사 보고서 작성

  1. 컨텍스트 1 (역할): "너는 NASA의 수석 과학자 '엘라'야. 전문적이고 객관적인 어투를 사용해줘."
  2. 컨텍스트 2 (데이터): (최근 화성 탐사 데이터 요약본 텍스트 파일)
  3. 컨텍스트 3 (보고서 양식): (NASA 공식 보고서 템플릿 및 주요 항목 설명)
  4. 질문: "엘라 박사, 첨부된 화성 탐사 데이터를 바탕으로 NASA 보고서 양식에 맞춰 초기 발견 사항을 요약해줘."

이렇게 여러 컨텍스트를 조합하면, AI가 정말 그럴듯한 보고서를 작성해 줄 거예요! 📄

'파인튜닝'이라는 것도 있던데, 컨텍스트랑은 어떻게 다른 건가요? 💡
AI
오, 아주 예리한 질문이세요! 🧐 '파인튜닝'과 '컨텍스트 활용'은 AI를 우리 입맛에 맞게 만드는 두 가지 다른 접근 방식이에요.
구분컨텍스트 활용 (PREDAQ 방식)파인튜닝
개념 대화 시마다 AI에게 참고자료(정보, 지침)를 제공하는 '오픈북 시험' 방식 📖 AI 모델 자체를 특정 데이터로 '추가 학습' 시키는 방식 🏋️‍️
필요 자원 특별한 기술, 데이터, 자원 거의 불필요. 아이디어만 있으면 OK! ✅ 전문 지식, 대량의 학습 데이터, 고성능 컴퓨팅 자원 필요 💸
적용 시점 즉시! 컨텍스트만 만들면 바로 사용 가능 ⚡ 모델 학습에 시간 소요 (수 시간 ~ 수 일) ⏳
유연성 매우 높음! 대화마다, 질문마다 컨텍스트 변경/조합 가능 🤸 낮음. 한번 학습된 내용을 바꾸려면 재학습 필요 🧱
주요 장점 쉽고 빠르게 AI 커스터마이징, 다양한 상황에 즉시 대응 매우 특화된 작업에 높은 성능, AI의 근본적인 말투/지식 변화
쉽게 말해, 컨텍스트 활용은 AI에게 '쪽지'를 계속 주면서 원하는 방향으로 유도하는 것이고, 파인튜닝은 AI를 '학교에 보내 다시 교육'시키는 것과 같아요. PREDAQ은 컨텍스트 활용을 통해 누구나 손쉽게 AI를 원하는 대로 제어할 수 있도록 지원합니다! 😄

대화기록 (History): AI와의 모든 순간을 타임머신처럼!

AI랑 나눈 대화가 중요한데, 나중에 다시 보거나 이어갈 수 있나요? 실수로 대화가 꼬였을 때 되돌릴 수도 있고요? 💾⏪
AI
그럼요! PREDAQ의 '대화기록' 기능은 단순한 저장 그 이상을 제공해요. 마치 대화의 타임머신 같답니다! 🧭✨
대화기록 기본 사용법
  • 저장하기: 현재 대화가 만족스럽거나 중요한 내용을 담고 있다면, 하단의 '기록 제목'을 입력하고 '저장' 버튼을 누르세요. 현재 대화 내용, 적용된 컨텍스트, AI의 기억까지 모두 저장돼요.
  • 불러오기: 왼쪽 사이드바 '대화기록' 목록에서 저장된 기록을 클릭하면, 그 시점으로 모든 것이 복원됩니다!

    중요! 이전 기록을 불러오면 현재 진행 중이던 대화 내용은 사라지니 주의하세요!

  • 폴더로 정리: 주제별, 프로젝트별로 폴더를 만들어 대화기록을 체계적으로 관리할 수 있어요. 컨텍스트 관리와 똑같아요! 📂
PREDAQ 대화기록, 뭐가 특별할까요?
다른 챗봇들은 한번 대화가 꼬이면 처음부터 다시 시작해야 하는 경우가 많죠? PREDAQ은 달라요!
  • 특정 시점으로 완벽 복원 (게임 세이브처럼!): 프롬프트를 잘못 입력했거나, AI 답변이 산으로 갔나요? 걱정 마세요! 저장해둔 특정 시점으로 돌아가면 모든 것이 해결됩니다. ⏱️
  • 컨텍스트/모델 바꿔서 이어가기: 저장된 대화를 불러온 후, "아, 이 컨텍스트를 추가했어야 했는데!" 또는 "이 질문은 더 강력한 모델로 다시 해볼까?" 싶을 때가 있죠? 문제없어요! 새 컨텍스트를 추가하거나 모델을 변경한 후 대화를 바로 이어나갈 수 있습니다. AI가 새로운 정보를 바탕으로 더 나은 답변을 줄 거예요. ✨🤖
  • 다양한 조건으로 실험: 동일한 대화 기록을 불러와서 컨텍스트, 모델, Temperature 설정을 바꿔가며 어떤 결과가 나오는지 비교 실험해볼 수 있어요. 최적의 조합을 찾는 데 아주 유용하죠! 🧪

대화기록 활용 시나리오: 최적의 마케팅 문구 찾기

  1. 초기 대화: '신제품 A'에 대한 기본 정보를 AI에게 주고, 몇 가지 마케팅 문구를 받아본 후 대화 저장 (이름: "신제품A 마케팅 v1").
  2. 실험 1 (컨텍스트 변경): "신제품A 마케팅 v1" 기록 로드 → 'MZ세대 타겟' 컨텍스트 추가 → AI에게 다시 문구 요청.
  3. 실험 2 (모델 변경): "신제품A 마케팅 v1" 기록 로드 → 모델을 gemini-flash에서 gemini-pro로 변경 → AI에게 다시 문구 요청.
  4. 결과 비교: 각 실험 결과를 비교하여 가장 효과적인 문구와 설정 조합을 찾아냅니다.
PREDAQ의 대화기록은 단순 보관을 넘어, 여러분이 대화 흐름을 적극적으로 제어하고 AI의 잠재력을 최대한 끌어낼 수 있도록 돕는 강력한 도구랍니다!

토큰 (Token)과 f-token: AI 사용의 기본 단위 이해하기

AI랑 대화할 때 '토큰'이라는 말이 나오던데, 이게 뭔가요? 비용이랑 관련된 건가요? 💰
AI
네, '토큰(Token)'은 AI를 이해하는 데 아주 중요한 열쇠 중 하나예요! 🔑

AI는 우리가 입력하는 글자를 그대로 한 자 한 자 읽는 게 아니에요. 대신, 텍스트를 '토큰'이라는 작은 의미 단위로 잘라서 처리해요. 예를 들어, "안녕하세요, 반갑습니다!" 라는 문장이 있다면, 모델에 따라 ["안녕", "하세요", ",", "반갑", "습니다", "!"] 처럼 여러 개의 토큰으로 나뉠 수 있죠. (실제 토큰화 방식은 모델이나 언어에 따라 더 복잡하고 다양해요!)

왜 토큰이 중요할까요?
  • AI 작업량 측정: AI가 처리하는 모든 입력(여러분의 질문 + 컨텍스트)과 출력(AI의 답변)의 양은 바로 이 '토큰 수'를 기준으로 계산돼요.
  • 비용 산정 기준: 대부분의 AI 서비스는 이 '토큰 사용량'에 따라 비용을 책정합니다. 많이 쓸수록 비용이 올라가는 구조죠.
PREDAQ의 f-token 시스템
PREDAQ에서는 자체적인 토큰 단위인 f-token 🪙을 사용해요. 이것은 Google의 gemini-flash 모델의 입력 토큰 1개 비용을 기준으로 하며, 더 성능이 좋거나 최신 모델을 사용할수록 더 많은 f-token이 소모됩니다. 이는 각 AI 모델별 실제 API 비용 차이를 반영한 것이랍니다.

💰 모델별 f-token 소모량 (예시, 변동 가능)

  • gemini-2.5-pro: 입력 1토큰 당 12.5 ~ 25 f-token (프롬프트 크기에 따라 변동), 출력 1토큰 당 100 ~ 150 f-token
  • gemini-2.5-flash: 입력 1토큰 당 1.5 f-token, 출력 1토큰 당 6 f-token (사고/추론 기능 사용 시 35 f-token)
*실제 차감되는 f-token은 Google API에서 응답받은 실제 토큰 수를 기반으로 계산됩니다.
하지만 너무 걱정하지 마세요! PREDAQ은 매일 넉넉한 양의 f-token을 무료로 제공해드리고 있어요! 🎉 그러니 부담 없이 다양한 기능을 사용해보시면서, 컨텍스트의 길이, 질문과 답변의 길이, 그리고 모델 선택 등을 어떻게 조절해야 f-token을 효율적으로 사용할 수 있을지 감을 잡아보세요! (참고: 총 사용 토큰량이 10,000 이상일 경우, AI 답변 마지막 줄에 사용량이 표시됩니다.)

모델 (Model): 작업에 맞는 최적의 두뇌 선택하기

PREDAQ에 gemini-flash, gemini-pro 같은 여러 AI 모델이 있던데, 뭐가 다르고 언제 어떤 걸 써야 할지 잘 모르겠어요. 🧠🤯
AI
맞아요! PREDAQ에서는 작업의 성격과 필요에 따라 다양한 Google Gemini 모델들을 골라 쓸 수 있답니다. 마치 다양한 도구함에서 가장 적합한 연장을 꺼내 쓰는 것과 같아요! 🛠️🎯

모델 선택, 무엇을 고려해야 할까요?
단순히 '더 똑똑한 모델'을 고르는 것만이 능사는 아니에요. 다음 요소들을 종합적으로 고려해야 합니다:
  • 🧠 성능 및 추론 능력: 복잡하고 미묘한 작업, 깊이 있는 분석이 필요할수록 고성능 모델이 유리해요.
  • 📚 학습 데이터 (최신성): 모델은 특정 시점까지의 데이터로 학습돼요. 하지만 걱정 마세요! PREDAQ의 'Search' 기능을 켜면 AI가 실시간 웹 검색으로 최신 정보를 보완해준답니다! (Search 기능은 다음 섹션에서 자세히!)
  • ⚡ 응답 속도: 빠른 답변이 중요한 간단한 작업에는 속도가 빠른 모델이 좋겠죠?
  • 💰 비용 (f-token 소모량): 고성능 모델일수록 더 많은 f-token을 사용해요. 예산과 작업의 중요도를 고려해야 해요.
Gemini 모델들의 강력한 장점: 방대한 출력 한도! 📜
Google Gemini 모델들은 특히 한 번에 생성할 수 있는 답변의 양(출력 토큰 한도)이 매우 크다는 엄청난 장점을 가지고 있어요! 예를 들어, gemini-2.5-progemini-2.5-flash 모델은 무려 65,536 토큰까지 한 번에 출력할 수 있답니다. 이게 어느 정도냐면, 아주 긴 보고서나 소설 한 챕터, 심지어 수천 줄짜리 복잡한 코드도 중간에 끊김 없이 한 번에 생성하거나 분석할 수 있다는 뜻이에요! 🚀

모델 선택 가이드라인 (예시):

  • 🚀 gemini-2.5-flash (또는 유사한 경량/고속 모델):
    • 추천 작업: 간단한 질의응답, 빠른 정보 요약, 이메일 초안 작성, 기본적인 코드 스니펫 생성, 아이디어 브레인스토밍, 가벼운 번역 등.
    • 장점: 매우 빠른 응답 속도, 낮은 f-token 소모량으로 경제적! 일상적인 대부분의 작업에 적합해요.
  • 💎 gemini-2.5-pro (또는 유사한 고성능 모델):
    • 추천 작업: 복잡한 문제 해결, 심층적인 데이터 분석, 전문적인 글쓰기 (보고서, 논문 초안), 긴 코드 생성 및 상세 리뷰, 창의적인 스토리텔링, 고품질 번역 등.
    • 장점: 뛰어난 추론 능력과 이해력, 복잡하고 긴 컨텍스트 처리 능력. 중요한 작업이나 높은 품질의 결과물이 필요할 때 선택하세요.

팁! 처음에는 빠른 모델(예: gemini-flash)로 시작해서 작업의 윤곽을 잡고, 더 깊이 있는 결과가 필요할 때 고성능 모델(예: gemini-pro)로 전환하거나, 대화기록을 저장한 후 다른 모델로 이어가는 것도 좋은 전략이에요!

직접 사용해보시면서 각 모델의 특징을 느껴보고, 작업의 성격에 맞춰 가장 효율적인 모델을 선택하는 나만의 노하우를 만들어보세요! 😊

Search & Temperature: AI 답변의 품질과 창의성 조절하기

모델 외에 AI 답변에 영향을 주는 설정이 또 있나요? 'Search' 스위치랑 'Temperature' 슬라이더가 보이던데요! 🔍🌡️
AI
네, 맞아요! 'Search' 기능과 'Temperature' 설정은 AI 답변의 방향과 스타일을 더욱 세밀하게 조절할 수 있는 아주 유용한 도구들이에요. 하나씩 살펴볼까요?

Search 기능: AI에게 최신 웹 정보를 실시간으로! 🌐
AI 모델은 특정 시점까지의 데이터로 학습되기 때문에, 아주 최신의 정보나 사건에 대해서는 잘 모를 수 있어요. 바로 이때 'Search' 기능이 빛을 발합니다! ✨
  • 작동 방식: Search 기능을 켜면, AI가 답변을 생성하기 전에 사용자의 질문과 관련된 내용을 Google 검색을 통해 실시간으로 찾아봐요. 그리고 그 검색 결과를 바탕으로 답변을 생성합니다.
  • 장점:
    • 최신 정보 반영: 방금 발표된 뉴스, 최신 기술 동향, 실시간 데이터 등 AI가 원래는 몰랐을 정보까지 답변에 포함시킬 수 있어요.
    • 정확성 및 신뢰도 향상: 웹 검색 결과를 교차 확인하며 답변을 생성하므로, AI가 잘못된 정보를 말하는 '환각(Hallucination)' 현상을 줄이는 데 도움이 돼요.

Search 기능 활용 예시:

  • "오늘 원/달러 환율이랑 주요 경제 뉴스 요약해줘." (Search ON 켜고 질문)
  • "최근 가장 인기 있는 프로그래밍 언어 트렌드는 뭐야? 관련 자료도 찾아줘." (Search ON)
  • "새로 출시된 스마트폰 모델 '갤럭티카 S99'의 사용자 반응 좀 알려줘." (Search ON)
Temperature 설정: 답변의 창의성 vs. 일관성 조절하기 🔥💧
'Temperature'는 AI 답변의 '무작위성' 또는 '창의성' 수준을 조절하는 값이에요. 온도를 높이면 더 뜨겁고(?) 창의적인 답변이, 낮추면 더 차분하고 일관된 답변이 나온다고 생각하시면 쉬워요.
Temperature 값답변 성향추천 작업
낮은 값 (예: 0.1 ~ 0.4) 더 결정적, 사실 기반, 일관성 높음, 예측 가능 정보 요약, 기술 문서 번역, 코드 생성/설명, 정해진 형식의 글쓰기 등 정확성이 중요할 때
중간 값 (예: 0.5 ~ 0.7) 창의성과 일관성의 적절한 균형 일반적인 대화, 이메일 초안 작성, 블로그 포스팅, 아이디어 구체화 등 대부분의 작업
높은 값 (예: 0.8 ~ 1.0 이상) 더 창의적, 다양함, 예측 불가능, 새로운 아이디어 브레인스토밍, 소설/시 창작, 마케팅 문구 생성, 새로운 관점의 아이디어 구상 등 창의성이 중요할 때

이렇게 활용해보세요!

예를 들어, 역사적 사실에 대한 요약을 원한다면 Temperature를 0.2 정도로 낮게 설정하고, 새로운 판타지 소설의 줄거리 아이디어를 얻고 싶다면 0.9 이상으로 높게 설정해보세요. 같은 질문이라도 Temperature 값에 따라 전혀 다른 느낌의 답변을 얻을 수 있답니다!

PREDAQ에서는 이 Temperature 값을 채팅창 하단의 슬라이더로 쉽게 조절할 수 있어요. 작업의 목표와 원하는 스타일에 맞춰 이 두 가지 설정을 잘 활용하시면, AI를 더욱 정교하게 컨트롤하는 재미를 느끼실 수 있을 거예요! 😄
와~ 정말 자세한 설명 고마워요! 로컬 파일 분석부터 컨텍스트, 대화기록, 모델, Search, Temperature까지! 이제 PREDAQ 완전 정복할 수 있겠어요! 😄💪
AI
천만에요! 도움이 되었다니 정말 기쁩니다. 😊 PREDAQ의 다양한 기능들을 직접 경험해보시면서, 여러분의 창의력과 생산성을 한껏 발휘해보세요! 사용하시다가 궁금한 점이 생기면 언제든지 다시 이 가이드를 찾아주시거나, 저에게 직접 물어보셔도 좋아요. PREDAQ과 함께 멋진 결과물 많이 만들어가시길 항상 응원할게요! 🎉🚀