Lokale KI-Assistenten für eigene Projekte nutzen: entdecken Sie Ollama!
Künstliche Intelligenz ist nicht länger Zukunftsmusik – sie ist schon heute direkt auf Ihrem Rechner verfügbar!
Entdecken Sie Ollama, das Tool, mit dem Sie leistungsstarke Sprachmodelle lokal betreiben können. Das Beste daran? Es ist datenschutzfreundlich, flexibel und funktioniert sogar offline.
In diesem Workshop tauchen wir spielerisch in die Welt von Ollama ein und lernen dabei, wie Sie die API-Schnittstelle nutzen, um eigene KI-Projekte zu realisieren.
Allgemeine Informationen
Dauer | 2 Stunden |
---|
- Einführung in Ollama und lokale LLMs
- Einrichtung und Nutzung in lokaler Umgebung
- Anbindung über API (z.B. in JavaScript)
- Grundkenntnisse im Umgang mit Terminal/Kommandozeile von Vorteil
- Installation von Ollama und die vom Kursleiter erstellten App Ollama-Spielwiese
- Zugriffsberechtigung auf das Terminal/Kommandozeile auf ihrem Computer (bei verwalteten Geräten bitte Rücksprache mit ihrem IT-Verantwortlichen)
Forschende, Lehrende, Bibliotheks- und Kulturmitarbeitende, die KI lokal testen oder einsetzen wollen.
Installation von Ollama und die vom Kursleiter erstellten App Ollama-Spielwiese (https://github.com/NbtKmy/ollama-spielwiese/releases).
Bitte bringen Sie Ihren eigenen Laptop zum Workshop.
Das ist ein Angebot der Universitätsbibliothek Zürich.
Das ist ein Angebot der Universitätsbibliothek Zürich.
Kursdaten
Code | Referierende | Daten | Plätze frei | Ort | |
---|---|---|---|---|---|
HS25-UBDF-05 | Kamiya Nobutake |
04.11.2025
(10:00 - 12:00 Uhr)
|
10 | Universität Zürich Zentrum | Zur Anmeldung |