Academic AI

ChatGPT auf einer abgeschotteten Instanz

Was ist ChatGPT?

Large Language Models (LLM) sind eine Art von „Künstlicher Intelli­genz“, die mithilfe großer Datenmengen trainiert wird, um Texte zu erzeugen, die von Menschen geschriebenen Texten ähnlich sind, und andere komplexe Sprachaufgaben zu lösen. Sie verwenden fort­schrittliche Algorithmen, insbesondere neuronale Netzwerke, um Kontext und Bedeutung in Texten zu verstehen und zu reproduzieren.
ChatGPT ist ein Produkt des Herstellers OpenAI.

Was ist Academic AI?

Bereits 20 Hochschulen nehmen am ACOmarket-Projekt „Academic AI“ teil. Mit Academic AI macht ACOmarket ChatGPT auf einer abgeschotteten Instanz von Microsoft Azure zugänglich. So kann ChatGPT verwendet werden, ohne dass eingegebene Daten und hochgeladene Dokumente die „Azure Secure Landing Zone“ verlassen.

Ziel des Projekts ist die Bereitstellung einer generischen und skalierbaren Cloud-Plattform, auf der ChatGPT ohne Sicherheitsbedenken genützt werden kann.

Optional können in späteren Projektphasen verschiedenste Plugins und weitere AI-Services hinzukommen.

Wie kann ich Academic-AI nutzen?

Alle BOKU-Angehörigen (Mitarbeiter*innen und Studierende) können Academic ChatGPT via BOKU Single-Sign-On (SSO) über folgende Adresse nutzen:

Wie ist es um den Schutz meiner Daten und Eingaben bestellt?

Das Service läuft auf der Azure Plattform von Microsoft innerhalb der EU.
Daten und Eingaben von BOKU-Angehörigen werden vom Hersteller OpenAI NICHT für das Trainieren der Modelle verwendet und bleiben innerhalb des akademischen Bereichs.

Ist die Nutzung im Umfang beschränkt?

Die Nutzung ist beschränkt. Es werden sämtliche Eingaben und Antworten des Modells pro User in Tokens abgerechnet.
Bei Tokens handelt es sich um Zeichenfolgen, in die ChatGPT und andere LLM Texte bei der Verarbeitung zerlegen bzw. aus denen LLM Texte bei der Verarbeitung zusammensetzen. Bei ChatGPT entspricht ein Wort unabhängig von der Sprache mindestens einem Token.
Die Tokenanzahl wird bei jeder Anfrage berechnet. Die Anzahl der Tokens pro Anfrage hängt von der Anfrage ab und kann variieren.