Lokale KI-Assistenten für eigene Projekte nutzen: entdecken Sie Ollama!

Künstliche Intelligenz ist nicht länger Zukunftsmusik – sie ist schon heute direkt auf Ihrem Rechner verfügbar!
Entdecken Sie Ollama, das Tool, mit dem Sie leistungsstarke Sprachmodelle lokal betreiben können. Das Beste daran? Es ist datenschutzfreundlich, flexibel und funktioniert sogar offline.

In diesem Workshop tauchen wir spielerisch in die Welt von Ollama ein und lernen dabei, wie Sie die API-Schnittstelle nutzen, um eigene KI-Projekte zu realisieren.

Allgemeine Informationen

Dauer 2 Stunden
  • Einführung in Ollama und lokale LLMs
  • Einrichtung und Nutzung in lokaler Umgebung
  • Anbindung über API (z.B. in JavaScript)
  • Grundkenntnisse im Umgang mit Terminal/Kommandozeile von Vorteil
  • Installation von Ollama und die vom Kursleiter erstellten App Ollama-Spielwiese
  • Zugriffsberechtigung auf das Terminal/Kommandozeile auf ihrem Computer (bei verwalteten Geräten bitte Rücksprache mit ihrem IT-Verantwortlichen)
Forschende, Lehrende, Bibliotheks- und Kulturmitarbeitende, die KI lokal testen oder einsetzen wollen.
Installation von Ollama und die vom Kursleiter erstellten App Ollama-Spielwiese (https://github.com/NbtKmy/ollama-spielwiese/releases).
Bitte bringen Sie Ihren eigenen Laptop zum Workshop.
Das ist ein Angebot der Universitätsbibliothek Zürich.

Kursdaten

Code Referierende Daten Plätze frei Ort
HS25-UBDF-05 Kamiya Nobutake 04.11.2025 (10:00 - 12:00 Uhr)
10 Universität Zürich Zentrum Zur Anmeldung