Hallo, angehender Agent! Hier ist Emma, zurück auf agent101.net. Heute möchte ich über etwas sprechen, das seit einigen Monaten in meinen Slack-Kanälen und persönlichen Projekten für Aufruhr sorgt: sicherzustellen, dass ein KI-Agent tatsächlich etwas Nützliches für Sie tun kann, konsistent, ohne dass Sie einen Doktortitel in Prompt-Engineering oder eine Serverfarm in Ihrem Schrank benötigen. Genauer gesagt werden wir untersuchen, wie man einen super einfachen KI-Agenten mit einer einzelnen Aufgabe erstellt, der spezifische Nachrichten für Sie abruft und zusammenfasst – sozusagen einen kleinen Jagdhund für Nachrichten, wenn Sie so wollen.
Ich weiß, ich weiß. „KI-Agent“ klingt immer noch nach etwas, das direkt aus einem Science-Fiction-Film stammt, oder? Oder vielleicht haben Sie bereits ChatGPT ausprobiert und sich gefragt: „Okay, aber wie bekomme ich dieses Ding dazu, alleine zu funktionieren, ohne dass ich jeden Befehl eingeben muss?“ Genau diese Lücke werden wir heute schließen. Mein Ziel für diesen Artikel ist es, den Prozess zu entmystifizieren und Ihnen zu zeigen, dass der Bau eines kleinen, zielgerichteten KI-Agenten nicht so beängstigend ist, wie es scheint. Denken Sie daran, es ist so, als würden Sie Ihrem digitalen Assistenten einen sehr spezifischen und wiederholbaren Trick beibringen.
Mein eigener Weg in die Welt der Agenten begann, ehrlich gesagt, aus reiner Frustration. Ich verbrachte viel zu viel Zeit damit, Tech-Nachrichten zu durchsuchen, auf der Suche nach Erwähnungen von Aktualisierungen spezifischer KI-Modelle oder neuen Agenten-Frameworks. Ich hatte Google Alerts eingerichtet, aber sie waren oft zu breit oder zu langsam. Ich wollte etwas, das den Kontext versteht, das Rauschen herausfiltern kann und mir eine prägnante Zusammenfassung gibt. Also dachte ich, wie jeder gute faule Programmierer (darauf bin ich stolz!), „Es muss eine Möglichkeit geben, das mit KI zu automatisieren.“
Und das gab es! Nach einigen Fehlstarts, ein paar Überlegungen zu API-Schlüsseln und einer ganzen Menge von Versuchen und Fehlern mit verschiedenen großen Sprachmodellen (LLMs) fand ich ein Schema, das funktioniert. Es ist kein Multi-Agenten-System, das komplexe Aufgaben koordiniert, noch wird es Ihren nächsten Roman schreiben. Aber es ist ein perfekter Einstieg, um zu verstehen, wie diese Elemente zusammenarbeiten, um etwas wirklich Nützliches zu schaffen.
Warum einen „Nachrichten-Jagdhund“-Agenten?
Wenn Sie anfangen, ist es eine sichere Methode, sich zu entmutigen, ein zu ehrgeiziges Projekt auszuwählen. Deshalb empfehle ich, mit einem Agenten mit einer einzelnen Aufgabe zu beginnen. Unser „Nachrichten-Jagdhund“-Agent ist aus mehreren Gründen perfekt:
- Klares Ziel: Bestimmte Nachrichten finden und sie zusammenfassen. Einfach.
- Greifbares Ergebnis: Sie erhalten eine Zusammenfassung, die Sie tatsächlich lesen können.
- Auf externen Daten basierend: Es lehrt Sie, wie Agenten mit der Außenwelt interagieren (Information Retrieval).
- Verwendet LLMs für die Interpretation: Das Herzstück der meisten Agenten ist ein LLM, das Text versteht und generiert.
- Wiederholbar: Einmal gebaut, können Sie es täglich, wöchentlich oder wann immer Sie möchten ausführen.
Stellen Sie sich vor, Sie wachen auf, und Ihr Agent hat bereits eine kurze Zusammenfassung aller aktuellen Entwicklungen in „KI-Ethik in großen Sprachmodellen“ oder „neuen Entwicklungen in Sensoren für autonomes Fahren“ vorbereitet. Nie wieder endlos durch allgemeine Tech-Blogs scrollen. Das ist der Traum, und es ist durchaus machbar.
Die Anatomie unseres Nachrichten-Jagdhund-Agenten
Jeder KI-Agent, egal wie einfach, hat normalerweise einige Schlüsselkomponenten. Für unseren Nachrichten-Jagdhund benötigen wir Folgendes:
- Das „Gehirn“ (LLM): Das ist unser großes Sprachmodell. Es wird verstehen, wonach wir suchen und die Informationen zusammenfassen. Ich werde die Modelle von OpenAI für dieses Beispiel verwenden, da sie weit verbreitet und gut dokumentiert sind, aber Sie könnten auch Claude von Anthropic oder sogar ein lokales Open-Source-Modell wählen, wenn Sie sich abenteuerlustig fühlen.
- Die „Augen“ (Information Retrieval): Unser Agent benötigt ein Mittel, um Informationen aus dem Internet zu beziehen. Für Nachrichten wird ein RSS-Feed-Reader oder eine einfache Web-Scraping-Bibliothek ausreichen. Wir halten es einfach mit einer Nachrichten-API für die Konsistenz.
- Die „Anweisungen“ (Prompt): So sagen wir dem LLM, was es tun soll. Das ist entscheidend für gute Ergebnisse.
- Der „Orchestrator“ (Python-Skript): Ein einfaches Skript, um alles zu verbinden, das dem Agenten sagt, wann es abfragen, wann und wo die Ergebnisse anzeigen soll.
Keine Sorge, wenn diese Begriffe gerade ein wenig zu fortgeschritten erscheinen. Wir werden jedes Element aufschlüsseln.
Was Sie vor dem Start benötigen
- Python: Stellen Sie sicher, dass Python 3.8+ installiert ist.
- Ein OpenAI API-Schlüssel: Diesen können Sie auf der OpenAI-Plattform erhalten. Es gibt eine kostenlose Stufe für erste Tests, aber Sie müssen wahrscheinlich eine Zahlungsmethode für die fortgesetzte Nutzung hinzufügen. Bewahren Sie diesen Schlüssel geheim!
- Ein Nachrichten-API-Schlüssel (optional, aber empfohlen): Dienste wie NewsAPI.org oder GNews API bieten kostenlose Stufen, die dafür perfekt sind. Das erleichtert das Abrufen strukturierter Nachrichten Daten erheblich, als rohes Web-Scraping zu machen. Für dieses Tutorial gehe ich davon aus, dass Sie über einen NewsAPI.org-Schlüssel verfügen.
- Ein einfaches Texteditor: VS Code, Sublime Text oder sogar Notepad sind ausreichend.
Schritt 1: Einrichten Ihrer Umgebung
Zuerst erstellen wir ein neues Verzeichnis für unser Projekt und installieren die benötigten Bibliotheken. Öffnen Sie Ihr Terminal oder Ihre Eingabeaufforderung:
mkdir news_hound_agent
cd news_hound_agent
python -m venv venv
source venv/bin/activate # Unter Windows : venv\Scripts\activate
pip install openai requests python-dotenv
Wir installieren:
openai: Um mit den Modellen von OpenAI zu interagieren.requests: Um HTTP-Anfragen an die Nachrichten-API zu stellen.python-dotenv: Um unsere API-Schlüssel sicher zu speichern.
Erstellen Sie dann eine Datei namens .env in Ihrem Verzeichnis news_hound_agent und fügen Sie Ihre API-Schlüssel hinzu:
OPENAI_API_KEY="your_openai_api_key_here"
NEWS_API_KEY="your_newsapi_key_here"
Ersetzen Sie die Platzhalter durch Ihre tatsächlichen Schlüssel. Stellen Sie sicher, dass Sie .env zu Ihrer .gitignore-Datei hinzufügen, falls Sie dieses Projekt jemals in ein Git-Repository einfügen!
Schritt 2: Aufbau des Information Retrievers (Die „Augen“)
Erstellen wir eine Python-Datei namens news_fetcher.py. Dieses Modul ist verantwortlich für das Abrufen der Nachrichtenartikel.
# news_fetcher.py
import requests
import os
from dotenv import load_dotenv
load_dotenv() # Laden der Umgebungsvariablen aus der .env-Datei
NEWS_API_KEY = os.getenv("NEWS_API_KEY")
NEWS_API_URL = "https://newsapi.org/v2/everything"
def fetch_news(query, language='en', sort_by='relevancy', page_size=10):
"""
Ruft Nachrichtenartikel von NewsAPI.org basierend auf einer Anfrage ab.
"""
if not NEWS_API_KEY:
print("Fehler: NEWS_API_KEY nicht im .env-Datei gefunden.")
return []
params = {
'q': query,
'language': language,
'sortBy': sort_by,
'pageSize': page_size,
'apiKey': NEWS_API_KEY
}
try:
response = requests.get(NEWS_API_URL, params=params)
response.raise_for_status() # Wirft eine Ausnahme bei HTTP-Fehler (4xx oder 5xx)
data = response.json()
articles = data.get('articles', [])
return articles
except requests.exceptions.RequestException as e:
print(f"Fehler beim Abrufen der Nachrichten: {e}")
return []
if __name__ == "__main__":
# Beispielverwendung, wenn Sie dieses Skript direkt ausführen
search_term = "AI agents for personal productivity"
articles = fetch_news(search_term, page_size=5)
if articles:
print(f"{len(articles)} Artikel für '{search_term}' gefunden:")
for i, article in enumerate(articles):
print(f"{i+1}. {article.get('title', 'Kein Titel')} - {article.get('url', 'Keine URL')}")
else:
print(f"Keine Artikel für '{search_term}' gefunden.")
Dieses Skript definiert eine Funktion fetch_news, die eine Anfrage (zum Beispiel „KI-Ethische Fragen“) entgegennimmt und eine Liste von Artikel-Dictionaries zurückgibt. Jedes Dictionary enthält Informationen wie Titel, Beschreibung und URL. Der Block if __name__ == "__main__": dient nur dazu, dieses Modul isoliert zu testen.
Schritt 3: Erstellung des Prompts (Die „Anweisungen“)
Hier kommt die Magie des LLM ins Spiel. Je besser Ihr Prompt, desto besser Ihre Zusammenfassung. Erstellen wir eine Datei namens summarizer.py.
# summarizer.py
from openai import OpenAI
import os
from dotenv import load_dotenv
load_dotenv()
client = OpenAI(api_key=os.getenv("OPENAI_API_KEY"))
def summarize_articles(articles, specific_focus="allgemeiner Überblick"):
"""
Fasst eine Liste von Nachrichtenartikeln mithilfe eines LLM von OpenAI zusammen.
Der Parameter specific_focus hilft, die Zusammenfassung zu steuern.
"""
if not articles:
return "Kein Artikel bereitgestellt."
# Artikel für das LLM vorbereiten
article_texts = []
for i, article in enumerate(articles):
title = article.get('title', 'Kein Titel')
description = article.get('description', 'Keine Beschreibung')
url = article.get('url', 'Kein URL')
article_texts.append(f"Artikel {i+1}:\nTitel: {title}\nBeschreibung: {description}\nURL: {url}\n---")
combined_text = "\n\n".join(article_texts)
# Die Eingabeaufforderung für unser LLM
prompt = f"""
Sie sind ein Experte für Nachrichtenanalyse. Ihre Aufgabe ist es, die folgenden Nachrichtenartikel zu überprüfen und eine prägnante Zusammenfassung zu liefern.
Die Zusammenfassung sollte sich speziell auf "{specific_focus}" konzentrieren.
Extrahieren Sie die wichtigsten Entwicklungen, Trends und wichtige Ankündigungen, die mit diesem Fokus in Verbindung stehen.
Halten Sie die Zusammenfassung unter 300 Wörtern, unter Verwendung einer klaren und professionellen Sprache.
Wenn ein Artikel für den spezifischen Fokus nicht relevant ist, können Sie kurz erwähnen, warum oder ihn weglassen.
Nachrichtenartikel:
{combined_text}
Zusammenfassung mit Fokus auf "{specific_focus}":
"""
try:
response = client.chat.completions.create(
model="gpt-3.5-turbo", # Sie können "gpt-4" für bessere Qualität verwenden, aber es ist teurer
messages=[
{"role": "system", "content": "Sie sind ein nützlicher und prägnanter Nachrichtenrezensent."},
{"role": "user", "content": prompt}
],
max_tokens=500, # Bei Bedarf anpassen
temperature=0.7 # Ein wenig kreativ, aber immer faktisch
)
summary = response.choices[0].message.content.strip()
return summary
except Exception as e:
print(f"Fehler beim Zusammenfassen der Artikel: {e}")
return "Unable to generate summary due to an error."
if __name__ == "__main__":
# Fiktive Beispielartikel für Tests
dummy_articles = [
{"title": "KI im Gesundheitswesen erhält neue Finanzierung", "description": "Investitionen nehmen in Startups zu, die KI für die Diagnostik nutzen.", "url": "http://example.com/ai-health"},
{"title": "Neues Elektroauto-Modell vorgestellt", "description": "Die Luxus-EV-Marke präsentiert ihr neuestes Fahrzeug mit verbesserter Reichweite.", "url": "http://example.com/ev-car"},
{"title": "Ethische Richtlinien zur KI von der EU vorgeschlagen", "description": "Die Europäische Union erstellt strikte Regeln für die verantwortungsvolle Entwicklung von KI.", "url": "http://example.com/eu-ai"},
]
focus = "Ethik und Regulierung der KI"
summary_result = summarize_articles(dummy_articles, focus)
print(f"\n--- Zusammenfassung für '{focus}' ---\n{summary_result}")
In diesem Skript:
- Wir laden den OpenAI API-Schlüssel.
summarize_articlesnimmt eine Liste von Artikeln und einen Stringspecific_focus. Dieserspecific_focusist entscheidend! Er weist das LLM an, welchen Blickwinkel es bei der Zusammenfassung verwenden soll, um generische Ausgaben zu vermeiden.- Die Eingabeaufforderung ist sorgfältig formuliert, um dem LLM eine Rolle (“experte für Nachrichtenanalyse”), klare Anweisungen (prägnante Zusammenfassung, spezifischer Fokus, Wortgrenze) und den zu verarbeitenden Inhalt zu geben.
- Wir verwenden
gpt-3.5-turbo, da es ein gutes Gleichgewicht zwischen Kosten und Leistung für diese Aufgabe bietet. Zögern Sie nicht, mitgpt-4zu experimentieren, wenn Sie nuanciertere Zusammenfassungen wünschen.
Schritt 4: Der Organisator (Alles verknüpfen)
Erstellen wir nun unser Hauptagentenskript, main_agent.py, das unseren Fetcher und unseren Summarizer aufruft.
# main_agent.py
from news_fetcher import fetch_news
from summarizer import summarize_articles
import datetime
def run_news_hound_agent(search_query, summary_focus):
"""
Orchestriert den Prozess des Nachrichtenfetchens und der Zusammenfassung.
"""
print(f"[{datetime.datetime.now()}] Starte den News Hound-Agent...")
print(f"Suche nach: '{search_query}' mit einem Fokus auf '{summary_focus}'")
# Schritt 1: Nachrichtenartikel abrufen
print("Abrufen von Nachrichtenartikeln...")
articles = fetch_news(search_query, page_size=10) # Holen Sie sich 10 Artikel
if not articles:
print("Keine Artikel gefunden oder ein Fehler trat beim Abrufen auf. Beende.")
return
print(f"Gefunden {len(articles)} relevante Artikel.")
# Schritt 2: Artikel zusammenfassen
print("Zusammenfassen der Artikel mit dem LLM...")
summary = summarize_articles(articles, summary_focus)
# Schritt 3: Ergebnisse anzeigen
print("\n--- Täglicher Nachrichtenbericht ---")
print(f"Datum: {datetime.date.today()}")
print(f"Suche: {search_query}")
print(f"Fokus: {summary_focus}")
print("\nZusammenfassung:")
print(summary)
print("\n--- Ende des Berichts ---")
# Optional: In einer Datei speichern
output_filename = f"tagesbericht_nachrichten_{datetime.date.today().isoformat()}.txt"
with open(output_filename, "w", encoding="utf-8") as f:
f.write(f"Täglicher Nachrichtenbericht für {datetime.date.today()}\n")
f.write(f"Suche: {search_query}\n")
f.write(f"Fokus: {summary_focus}\n\n")
f.write("Zusammenfassung:\n")
f.write(summary)
f.write("\n\nUrsprüngliche Artikelüberschriften (zur Referenz):\n")
for article in articles:
f.write(f"- {article.get('title', 'Kein Titel')}\n")
print(f"\nBericht gespeichert unter {output_filename}")
if __name__ == "__main__":
# Definieren Sie, wonach Ihr Agent suchen und worauf er sich konzentrieren soll
my_search_query = "KI-Agenten-Rahmen ODER LLM-Orchestrierung"
my_summary_focus = "neue Werkzeuge und Methoden zum Erstellen von KI-Agenten"
run_news_hound_agent(my_search_query, my_summary_focus)
Dieses Skript orchestriert den gesamten Prozess:
- Es definiert eine Funktion
run_news_hound_agent, die einesearch_query(was in den Titeln und Beschreibungen der Nachrichten gesucht werden soll) und einensummary_focus(worauf sich das LLM speziell konzentrieren soll) entgegennimmt. - Es ruft
fetch_newsauf, um die Rohartikel abzurufen. - Es übergibt dann diese Artikel und den Fokus an
summarize_articles. - Schließlich druckt es die Zusammenfassung in die Konsole und speichert sie in einer Textdatei zur späteren leichten Lesbarkeit.
Führen Sie Ihren News Hound-Agenten aus!
Öffnen Sie jetzt Ihr Terminal, stellen Sie sicher, dass Ihre virtuelle Umgebung aktiv ist, und führen Sie aus:
python main_agent.py
Sie sollten eine Ausgabe sehen, die zeigt, dass der Agent die Nachrichten abruft, dann zusammenfasst, und schließlich Ihr persönliches Nachrichten-Digest in der Konsole ausdruckt und als Datei speichert! Die erste Ausführung kann einige Sekunden dauern, da das LLM die Anfrage verarbeitet.
Was ich daran mag, ist die Geschwindigkeit der Rückmeldung. Sie geben eine Anfrage ein, spezifizieren einen Fokus, und zack – Sie erhalten eine personalisierte Zusammenfassung. Schluss mit generischen Überschriften. Für mich war das ein riesiger Moment des “Eureka”. Es war nicht nur ein Gespräch mit einer KI; es war, eine KI dazu zu bringen, eine spezifische und wertvolle Aufgabe in meinem Namen zu erfüllen.
Personalisieren und Erweitern Ihres Agenten
Das ist erst der Anfang! Hier sind einige Ideen, um Ihren News Hound weiter zu verbessern:
- Mehrere Anfragen/Fokusse: Ändern Sie
main_agent.py, um mehrere Anfragen oder unterschiedliche Fokusse auszuführen und mehrere Digest zu generieren. - Automatisierung: Verwenden Sie Tools wie
cron(Linux/macOS) oder den Windows Aufgabenplaner, ummain_agent.pyjeden Morgen automatisch auszuführen. - Verschiedene LLMs: Experimentieren Sie mit anderen LLMs. Vielleicht Claude 3 Opus von Anthropic für längere Kontexte oder Llama 3 für lokale Verarbeitung.
- Ausgabeformate: Anstatt einer Textdatei, speichern Sie die Ausgabe im HTML-Format, Markdown-Datei oder senden Sie sie sogar per E-Mail oder an einen Slack-Kanal (dann sollten Sie die APIs integrieren).
- Kontextbasiertes Filtern: Vor der Zusammenfassung könnten Sie einen Zwischenschritt hinzufügen, bei dem das LLM (oder ein einfacherer Textklassifikator) bestimmt, ob jeder abgerufene Artikel wirklich relevant für Ihren spezifischen Fokus ist, um das Rauschen weiter zu filtern.
- Erweiterte Nachrichtenquellen: Erkunden Sie andere Nachrichten-APIs oder sogar Web-Scraping von spezifischen Websites (obwohl Sie auf die Nutzungsbedingungen achten sollten!).
Mein eigener News Hound hat sich aus dieser Basis-Konfiguration weiterentwickelt. Ich habe es jetzt so eingestellt, dass es jede Nacht läuft und nach Updates zu spezifischen Agentenrahmen sucht, die ich überwache, und es sendet mir jeden Morgen eine Zusammenfassung. Das hat mir Stunden beim Sortieren von RSS-Feeds und Twitter erspart. Es ist wirklich zu meinem digitalen Forschungsassistenten geworden.
Wichtige Punkte
Was sollten Sie also aus all dem mitnehmen?
- Klein anfangen, groß denken: Versuchen Sie nicht, beim ersten Versuch gleich die nächste AGI zu bauen. Ein Agent mit einem einzelnen Ziel ist ein hervorragendes Lernwerkzeug.
- Prompts sind mächtig: Die Qualität Ihrer Ausgabe hängt direkt von der Klarheit und Genauigkeit Ihrer Prompts ab. Nehmen Sie sich die Zeit, sie zu verfeinern.
- APIs sind Ihre Freunde: LLMs sind mächtig, benötigen jedoch Daten. Lernen Sie, wie man mit externen APIs (wie NewsAPI) interagiert, das ist grundlegend.
- Code ist das Bindeglied: Python (oder jede Skriptsprache) verwandelt eine Sammlung leistungsstarker Komponenten in einen funktionalen Agenten.
- Iterieren und experimentieren: Scheuen Sie sich nicht, Modelle zu ändern, Prompts zu modifizieren oder verschiedene Datenquellen auszuprobieren. So erfahren Sie, was für Ihre spezifischen Bedürfnisse am besten funktioniert.
Dieser News Hound-Agent zu bauen, ist eine praktische und greifbare Möglichkeit, die grundlegenden Konzepte hinter KI-Agenten zu verstehen. Es zeigt Ihnen, wie man ein LLM mit externen Tools verbindet und eine nützliche Aufgabe automatisiert. Dieses grundlegende Wissen ist die Basis, auf der Sie aufbauen werden, während Sie komplexere Multi-Agenten-Systeme erkunden oder Agenten in größere Anwendungen integrieren.
Probieren Sie es aus! Sie könnten überrascht sein, wie schnell Sie Ihren eigenen kleinen digitalen Assistenten einrichten können. Und wie immer, wenn Sie auf ein Problem stoßen oder eine interessante neue Möglichkeit finden, dies zu erweitern, hinterlassen Sie einen Kommentar unten oder finden Sie mich in den sozialen Medien. Viel Spaß beim Entwickeln von Agenten!
Ähnliche Artikel
- Lernen Sie KI: Ihr vollständiger Anfängerweg für KI 2026
- KI-Agenten für Anfänger: Ihr freundlicher Leitfaden
- Tutorials zu KI-Agenten mit echten Beispielen
🕒 Published:
Related Articles
- Même nos agents IA pourraient être touchés : le piratage de Trivy montre que les risques liés à la chaîne d’approvisionnement sont partout
- 5 errori di monitoraggio dei costi che costano soldi veri
- Überprüfen Colleges die Anwesenheit von IA in Bewerbungsaufsätzen? Was Sie wissen müssen
- Notizie sulla regolamentazione dell’IA 2025: Cosa È Davvero Successo vs Cosa Era Promesso