یک مقاله علمی متعلق به مایکروسافت، مسائل مربوط به "قابل اعتماد بودن " و سمی بودن مدلهای زبان بزرگ (LLM) از جمله GPT-4 و GPT-3.5 OpenAI برجسته کرد.
این پژوهش نشان داد که GPT-4 میتواند متن سمیتر و مغرضانهتری تولید کند، بهویژه زمانی که با درخواستهای «jailbreaking» مواجه میشود و اقدامات امنیتی را دور میزند.