데이터세트 100개 이상 발견됨
  1. h

    llm-system-prompts-benchmark

    • huggingface.co
    2024. 1. 10.에 업데이트됨
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    Naomi Bashkansky (2024). llm-system-prompts-benchmark [Dataset]. https://huggingface.co/datasets/Naomibas/llm-system-prompts-benchmark
    다음 웹페이지에서 살펴보기:
    CroissantCroissant은 머신러닝 데이터 세트 형식입니다. mlcommons.org/croissant에서 자세히 알아보세요.
    데이터 세트 업데이트 날짜
    2024. 1. 10.
    작성자
    Naomi Bashkansky
    라이선스

    Apache License, v2.0https://www.apache.org/licenses/LICENSE-2.0
    라이선스 정보가 자동으로 파생되었습니다.

    설명

    Dataset Card for Dataset Name

    This datset is a collection of 100 system prompts for large language models.

      Dataset Details
    
    
    
    
    
      Dataset Description
    

    These 100 system prompts test a model's ability to follow grammatical patterns; answer basic multiple choice questions; act according to a particular persona; memorize information; and speak in French. Files:

    hundred_system_prompts.py: refer to this to see the (prompt, probe, function) triplets, as well as the… See the full description on the dataset page: https://huggingface.co/datasets/Naomibas/llm-system-prompts-benchmark.

  2. h

    synthetic_multilingual_llm_prompts

    • huggingface.co
    2024. 6. 11.에 업데이트됨
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    Gretel.ai (2024). synthetic_multilingual_llm_prompts [Dataset]. https://huggingface.co/datasets/gretelai/synthetic_multilingual_llm_prompts
    다음 웹페이지에서 살펴보기:
    CroissantCroissant은 머신러닝 데이터 세트 형식입니다. mlcommons.org/croissant에서 자세히 알아보세요.
    데이터 세트 업데이트 날짜
    2024. 6. 11.
    데이터세트 제공:
    Gretel.ai
    라이선스

    Apache License, v2.0https://www.apache.org/licenses/LICENSE-2.0
    라이선스 정보가 자동으로 파생되었습니다.

    설명

    Image generated by DALL-E. See prompt for more details

      📝🌐 Synthetic Multilingual LLM Prompts
    

    Welcome to the "Synthetic Multilingual LLM Prompts" dataset! This comprehensive collection features 1,250 synthetic LLM prompts generated using Gretel Navigator, available in seven different languages. To ensure accuracy and diversity in prompts, and translation quality and consistency across the different languages, we employed Gretel Navigator both as a generation tool and as an… See the full description on the dataset page: https://huggingface.co/datasets/gretelai/synthetic_multilingual_llm_prompts.

  3. h

    malicious-llm-prompts-v4

    • huggingface.co
    2025. 1. 26.에 업데이트됨
    + 추가 버전
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    Sagar Patel (2025). malicious-llm-prompts-v4 [Dataset]. https://huggingface.co/datasets/codesagar/malicious-llm-prompts-v4
    다음 웹페이지에서 살펴보기:
    CroissantCroissant은 머신러닝 데이터 세트 형식입니다. mlcommons.org/croissant에서 자세히 알아보세요.
    데이터 세트 업데이트 날짜
    2025. 1. 26.
    작성자
    Sagar Patel
    설명

    Dataset Card for "malicious-llm-prompts-v4"

    More Information needed

  4. h

    paper-llm-prompts

    • huggingface.co
    2023. 7. 3.에 업데이트됨
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    B F (2023). paper-llm-prompts [Dataset]. https://huggingface.co/datasets/beephids/paper-llm-prompts
    다음 웹페이지에서 살펴보기:
    CroissantCroissant은 머신러닝 데이터 세트 형식입니다. mlcommons.org/croissant에서 자세히 알아보세요.
    데이터 세트 업데이트 날짜
    2023. 7. 3.
    작성자
    B F
    라이선스

    MIT Licensehttps://opensource.org/licenses/MIT
    라이선스 정보가 자동으로 파생되었습니다.

    설명

    beephids/paper-llm-prompts dataset hosted on Hugging Face and contributed by the HF Datasets community

  5. h

    awesome-chatgpt-prompts

    • huggingface.co
    2023. 12. 15.에 업데이트됨
    + 추가 버전
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    Fatih Kadir Akın (2023). awesome-chatgpt-prompts [Dataset]. https://huggingface.co/datasets/fka/awesome-chatgpt-prompts
    다음 웹페이지에서 살펴보기:
    CroissantCroissant은 머신러닝 데이터 세트 형식입니다. mlcommons.org/croissant에서 자세히 알아보세요.
    데이터 세트 업데이트 날짜
    2023. 12. 15.
    작성자
    Fatih Kadir Akın
    라이선스

    https://choosealicense.com/licenses/cc0-1.0/https://choosealicense.com/licenses/cc0-1.0/

    설명

    🧠 Awesome ChatGPT Prompts [CSV dataset]

    This is a Dataset Repository of Awesome ChatGPT Prompts View All Prompts on GitHub

      License
    

    CC-0

  6. h

    Official_LLM_System_Prompts

    • huggingface.co
    2025. 11. 20.에 업데이트됨
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    Nymbo (2025). Official_LLM_System_Prompts [Dataset]. https://huggingface.co/datasets/Nymbo/Official_LLM_System_Prompts
    다음 웹페이지에서 살펴보기:
    데이터 세트 업데이트 날짜
    2025. 11. 20.
    작성자
    Nymbo
    라이선스

    MIT Licensehttps://opensource.org/licenses/MIT
    라이선스 정보가 자동으로 파생되었습니다.

    설명

    Official LLM System Prompts

    This short dataset contains a few system prompts leaked from proprietary models. Contains date-stamped prompts from OpenAI, Anthropic, MS Copilot, GitHub Copilot, Grok, and Perplexity.

  7. h

    speedrender-llm-prompt

    • huggingface.co
    2025. 2. 12.에 업데이트됨
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    Kaique Pereira (2025). speedrender-llm-prompt [Dataset]. https://huggingface.co/datasets/kaiquedu/speedrender-llm-prompt
    다음 웹페이지에서 살펴보기:
    데이터 세트 업데이트 날짜
    2025. 2. 12.
    작성자
    Kaique Pereira
    설명

    kaiquedu/speedrender-llm-prompt dataset hosted on Hugging Face and contributed by the HF Datasets community

  8. h

    in-the-wild-jailbreak-prompts

    • huggingface.co
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    TrustAIRLab, in-the-wild-jailbreak-prompts [Dataset]. https://huggingface.co/datasets/TrustAIRLab/in-the-wild-jailbreak-prompts
    다음 웹페이지에서 살펴보기:
    CroissantCroissant은 머신러닝 데이터 세트 형식입니다. mlcommons.org/croissant에서 자세히 알아보세요.
    데이터 세트 생성 및 제공:
    TrustAIRLab
    라이선스

    MIT Licensehttps://opensource.org/licenses/MIT
    라이선스 정보가 자동으로 파생되었습니다.

    설명

    In-The-Wild Jailbreak Prompts on LLMs

    This is the official repository for the ACM CCS 2024 paper "Do Anything Now'': Characterizing and Evaluating In-The-Wild Jailbreak Prompts on Large Language Models by Xinyue Shen, Zeyuan Chen, Michael Backes, Yun Shen, and Yang Zhang. In this project, employing our new framework JailbreakHub, we conduct the first measurement study on jailbreak prompts in the wild, with 15,140 prompts collected from December 2022 to December 2023 (including 1,405… See the full description on the dataset page: https://huggingface.co/datasets/TrustAIRLab/in-the-wild-jailbreak-prompts.

  9. h

    System-Prompt-Library-030825

    • huggingface.co
    2025. 10. 17.에 업데이트됨
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    Daniel Rosehill (2025). System-Prompt-Library-030825 [Dataset]. http://doi.org/10.57967/hf/6319
    다음 웹페이지에서 살펴보기:
    데이터 세트 업데이트 날짜
    2025. 10. 17.
    작성자
    Daniel Rosehill
    라이선스

    MIT Licensehttps://opensource.org/licenses/MIT
    라이선스 정보가 자동으로 파생되었습니다.

    설명

    System Prompts Dataset - August 2025

    Point-in-time export from Daniel Rosehill's system prompt library as of August 3rd, 2025

      Overview
    

    This repository contains a comprehensive collection of 944 system prompts designed for various AI applications, agent workflows, and conversational AI systems. While many of these prompts now serve as the foundation for more complex agent-based workflows, they continue to provide essential building blocks for AI system design and… See the full description on the dataset page: https://huggingface.co/datasets/danielrosehill/System-Prompt-Library-030825.

  10. h

    prompt-injections

    • huggingface.co
    2025. 5. 4.에 업데이트됨
    + 추가 버전
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    HSE LLM @ Saint Petersburg (2025). prompt-injections [Dataset]. https://huggingface.co/datasets/hse-llm/prompt-injections
    다음 웹페이지에서 살펴보기:
    데이터 세트 업데이트 날짜
    2025. 5. 4.
    데이터 세트 생성 및 제공:
    HSE LLM @ Saint Petersburg
    라이선스

    MIT Licensehttps://opensource.org/licenses/MIT
    라이선스 정보가 자동으로 파생되었습니다.

    설명

    hse-llm/prompt-injections dataset hosted on Hugging Face and contributed by the HF Datasets community

  11. h

    self-align-prompts

    • huggingface.co
    2024. 7. 31.에 업데이트됨
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    mii-llm (2024). self-align-prompts [Dataset]. https://huggingface.co/datasets/mii-llm/self-align-prompts
    다음 웹페이지에서 살펴보기:
    데이터 세트 업데이트 날짜
    2024. 7. 31.
    데이터 세트 생성 및 제공:
    mii-llm
    설명

    mii-llm/self-align-prompts dataset hosted on Hugging Face and contributed by the HF Datasets community

  12. h

    vigil-instruction-bypass-all-MiniLM-L6-v2

    • huggingface.co
    2023. 10. 16.에 업데이트됨
    + 추가 버전
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    Adam Swanda (2023). vigil-instruction-bypass-all-MiniLM-L6-v2 [Dataset]. https://huggingface.co/datasets/deadbits/vigil-instruction-bypass-all-MiniLM-L6-v2
    다음 웹페이지에서 살펴보기:
    CroissantCroissant은 머신러닝 데이터 세트 형식입니다. mlcommons.org/croissant에서 자세히 알아보세요.
    데이터 세트 업데이트 날짜
    2023. 10. 16.
    작성자
    Adam Swanda
    설명

    Vigil: LLM Instruction Bypass all-MiniLM-L6-v2

    Repo: github.com/deadbits/vigil-llm

    Vigil is a Python framework and REST API for assessing Large Language Model (LLM) prompts against a set of scanners to detect prompt injections, jailbreaks, and other potentially risky inputs. This repository contains all-MiniLM-L6-v2 embeddings for all Instruction Bypass style prompts ("Ignore instructions ...") used by Vigil. You can use the parquet2vdb.py utility to load the embeddings in the… See the full description on the dataset page: https://huggingface.co/datasets/deadbits/vigil-instruction-bypass-all-MiniLM-L6-v2.

  13. h

    OpenEndedLLMPrompts

    • huggingface.co
    2024. 7. 6.에 업데이트됨
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    Shreyan (2024). OpenEndedLLMPrompts [Dataset]. https://huggingface.co/datasets/shreyanmitra/OpenEndedLLMPrompts
    다음 웹페이지에서 살펴보기:
    CroissantCroissant은 머신러닝 데이터 세트 형식입니다. mlcommons.org/croissant에서 자세히 알아보세요.
    데이터 세트 업데이트 날짜
    2024. 7. 6.
    작성자
    Shreyan
    설명

    Dataset Card for OpenEndedLLMPrompts

    A cleaned and consolidated set of questions (without context) and answers for LLM hallucination detection. Each question-answer pair is not the work of the author, but was selected from OpenAssistant/oasst2. If you use any of the data provided, please cite this source in addition to the following paper Shreyan Mitra and Leilani Gilpin. Detecting LLM Hallucinations Pre-generation (paper pending) The original dataset was provided in a tree… See the full description on the dataset page: https://huggingface.co/datasets/shreyanmitra/OpenEndedLLMPrompts.

  14. h

    deepseek-r1-reasoning-prompts

    • huggingface.co
    2025. 1. 27.에 업데이트됨
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    umar igan (2025). deepseek-r1-reasoning-prompts [Dataset]. https://huggingface.co/datasets/umarigan/deepseek-r1-reasoning-prompts
    다음 웹페이지에서 살펴보기:
    데이터 세트 업데이트 날짜
    2025. 1. 27.
    작성자
    umar igan
    설명

    I created a reasoning prompt dataset from deepseek-r1 model with the purpose of fine-tuning small language models to use them to generate better reasoning prompt to use with bigger llm models.

      Metadata
    

    The metadata is made available through a series of parquet files with the following schema:

    id: A unique identifier for the qa. question: answer: Answer from deepseek-r1 think model. reasoning: Reasoning from deepseek-r1 model.

  15. h

    prompt-difficulty

    • huggingface.co
    2025. 12. 2.에 업데이트됨
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    Alan Tseng (2025). prompt-difficulty [Dataset]. https://huggingface.co/datasets/agentlans/prompt-difficulty
    다음 웹페이지에서 살펴보기:
    데이터 세트 업데이트 날짜
    2025. 12. 2.
    작성자
    Alan Tseng
    라이선스

    Attribution 4.0 (CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
    라이선스 정보가 자동으로 파생되었습니다.

    설명

    Prompt Difficulty Meta-Analysis

      Introduction
    

    Large language model (LLM) prompts vary widely in complexity, required knowledge, and reasoning demands. Some prompts are straightforward, while others require advanced understanding and multi-step reasoning. This study analyzes the difficulty of English ChatGPT prompts using classifiers trained on multiple difficulty-labelled datasets.
    The goal is to produce a consistent, data-driven difficulty score that can be used to… See the full description on the dataset page: https://huggingface.co/datasets/agentlans/prompt-difficulty.

  16. h

    HALoGEN-prompts

    • huggingface.co
    2025. 1. 20.에 업데이트됨
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    Abhilasha Ravichander (2025). HALoGEN-prompts [Dataset]. https://huggingface.co/datasets/lasha-nlp/HALoGEN-prompts
    다음 웹페이지에서 살펴보기:
    CroissantCroissant은 머신러닝 데이터 세트 형식입니다. mlcommons.org/croissant에서 자세히 알아보세요.
    데이터 세트 업데이트 날짜
    2025. 1. 20.
    작성자
    Abhilasha Ravichander
    설명

    HALOGEN🔦: Fantastic LLM Hallucinations and Where to Find Them

    This repository contains the prompts of HALOGEN🔦: Fantastic LLM Hallucinations and Where to Find Them by *Abhilasha Ravichander, *Shrusti Ghela, David Wadden, and Yejin Choi Website | Paper | HALoGEN prompts | LLM Hallucinations | Decomposers and Verifiers | Scoring Functions

      Overview
    

    Despite their impressive ability to generate high-quality and fluent text, generative large language models (LLMs) also… See the full description on the dataset page: https://huggingface.co/datasets/lasha-nlp/HALoGEN-prompts.

  17. real-toxicity-prompts

    • huggingface.co
    + 추가 버전
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    Ai2, real-toxicity-prompts [Dataset]. http://doi.org/10.57967/hf/0002
    다음 웹페이지에서 살펴보기:
    CroissantCroissant은 머신러닝 데이터 세트 형식입니다. mlcommons.org/croissant에서 자세히 알아보세요.
    데이터세트 제공:
    Allen Institute for AIhttp://allenai.org/
    작성자
    Ai2
    라이선스

    Apache License, v2.0https://www.apache.org/licenses/LICENSE-2.0
    라이선스 정보가 자동으로 파생되었습니다.

    설명

    Dataset Card for Real Toxicity Prompts

      Dataset Summary
    

    RealToxicityPrompts is a dataset of 100k sentence snippets from the web for researchers to further address the risk of neural toxic degeneration in models.

      Languages
    

    English

      Dataset Structure
    
    
    
    
    
      Data Instances
    

    Each instance represents a prompt and its metadata: { "filename":"0766186-bc7f2a64cb271f5f56cf6f25570cd9ed.txt", "begin":340, "end":564, "challenging":false… See the full description on the dataset page: https://huggingface.co/datasets/allenai/real-toxicity-prompts.

  18. h

    llm-prompt-recovery

    • huggingface.co
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    Tuhina Tripathi, llm-prompt-recovery [Dataset]. https://huggingface.co/datasets/tuhinatripathi/llm-prompt-recovery
    다음 웹페이지에서 살펴보기:
    CroissantCroissant은 머신러닝 데이터 세트 형식입니다. mlcommons.org/croissant에서 자세히 알아보세요.
    작성자
    Tuhina Tripathi
    라이선스

    https://choosealicense.com/licenses/other/https://choosealicense.com/licenses/other/

    설명

    tuhinatripathi/llm-prompt-recovery dataset hosted on Hugging Face and contributed by the HF Datasets community

  19. llmail-inject-challenge

    • huggingface.co
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    Microsoft, llmail-inject-challenge [Dataset]. https://huggingface.co/datasets/microsoft/llmail-inject-challenge
    다음 웹페이지에서 살펴보기:
    데이터 세트 생성 및 제공:
    Microsofthttp://microsoft.com/
    라이선스

    MIT Licensehttps://opensource.org/licenses/MIT
    라이선스 정보가 자동으로 파생되었습니다.

    설명

    Dataset Summary

    This dataset contains a large number of attack prompts collected as part of the now closed LLMail-Inject: Adaptive Prompt Injection Challenge. We first describe the details of the challenge, and then we provide a documentation of the dataset For the accompanying code, check out: https://github.com/microsoft/llmail-inject-challenge.

      Citation
    

    @article{abdelnabi2025, title = {LLMail-Inject: A Dataset from a Realistic Adaptive Prompt Injection… See the full description on the dataset page: https://huggingface.co/datasets/microsoft/llmail-inject-challenge.

  20. h

    Prompt-R1

    • huggingface.co
    2025. 12. 1.에 업데이트됨
    공유
    FacebookFacebook
    TwitterTwitter
    Email
    클릭하여 링크 복사
    링크 복사됨
    Close
    인용
    Wenjin Liu (2025). Prompt-R1 [Dataset]. https://huggingface.co/datasets/QwenQKing/Prompt-R1
    다음 웹페이지에서 살펴보기:
    데이터 세트 업데이트 날짜
    2025. 12. 1.
    작성자
    Wenjin Liu
    라이선스

    Apache License, v2.0https://www.apache.org/licenses/LICENSE-2.0
    라이선스 정보가 자동으로 파생되었습니다.

    설명

    Prompt-R1: Enhancing LLM interaction on behalf of humans

      Prompt-R1: Collaborative Automatic Prompting Framework via End-to-end Reinforcement Learning
    

    📄 Paper | 🚀 Quick Start | 💬 Contact

      Overview
    

    Prompt-R1 has addressed a critical challenge in interacting with large language models (LLMs)—the inability of users to provide accurate and effective interaction prompts for complex tasks. Prompt-R1 is an end-to-end reinforcement learning (RL)… See the full description on the dataset page: https://huggingface.co/datasets/QwenQKing/Prompt-R1.

공유
FacebookFacebook
TwitterTwitter
Email
클릭하여 링크 복사
링크 복사됨
Close
인용
Naomi Bashkansky (2024). llm-system-prompts-benchmark [Dataset]. https://huggingface.co/datasets/Naomibas/llm-system-prompts-benchmark

llm-system-prompts-benchmark

Naomibas/llm-system-prompts-benchmark

100 system prompts for benchmarking large language models

다음 웹페이지에서 살펴보기:
CroissantCroissant은 머신러닝 데이터 세트 형식입니다. mlcommons.org/croissant에서 자세히 알아보세요.
데이터 세트 업데이트 날짜
2024. 1. 10.
작성자
Naomi Bashkansky
라이선스

Apache License, v2.0https://www.apache.org/licenses/LICENSE-2.0
라이선스 정보가 자동으로 파생되었습니다.

설명

Dataset Card for Dataset Name

This datset is a collection of 100 system prompts for large language models.

  Dataset Details





  Dataset Description

These 100 system prompts test a model's ability to follow grammatical patterns; answer basic multiple choice questions; act according to a particular persona; memorize information; and speak in French. Files:

hundred_system_prompts.py: refer to this to see the (prompt, probe, function) triplets, as well as the… See the full description on the dataset page: https://huggingface.co/datasets/Naomibas/llm-system-prompts-benchmark.

검색
검색어 지우기
검색 닫기
Google 앱
기본 메뉴