Im heutigen Zeitalter der zunehmenden künstlichen Intelligenz wird eine Plattform, die eine Vielzahl gängiger künstlicher Intelligenzdienste integriert, unsere Arbeit und kreative Effizienz zweifellos erheblich verbessern. Heute werde ich Ihnen ein Schatzprojekt auf GitHub vorstellen. Damit können Sie problemlos ein „Super-Einkaufszentrum“ für KI-Anwendungen erstellen und eine große Anzahl großer Modellprodukte wie ChatGPT, Midjourney, Suno usw. verwenden. Mit der Zeit werden die unterstützten KI-Anwendungen weiterhin unterstützt zu erweitern.
Um dieses Projekt zu erstellen, benötigen Sie zunächst einen Server, bei dem es sich um einen lokalen Computer oder einen Cloud-Server handeln kann. Aber aus Sicht der Geschwindigkeit und Stabilität haben Cloud-Server, insbesondere ausländische Knoten, weitere Vorteile. Hier muss ich die Cloud-Technologie von Amazon erwähnen. Neu registrierte Benutzer können Cloud-Server für einen bestimmten Zeitraum kostenlos nutzen, und viele Cloud-Dienste gewähren sogar lebenslange kostenlose Rechte.
Der Registrierungsprozess läuft wie folgt ab: 1. Wählen Sie ein Auslandskonto : Für Privatpersonen sind die Beschränkungen für Auslandskonten relativ locker. 2. Geben Sie Ihre E-Mail-Adresse ein : Geben Sie Ihre E-Mail-Adresse ein und erhalten Sie den Bestätigungscode. 3. Vollständige Informationen : Geben Sie die erforderlichen Informationen ein und stellen Sie eine Kreditkarte mit dem UnionPay- oder Visa-Logo bereit. Die Registrierung ist nun abgeschlossen.
Nachdem die Registrierung abgeschlossen ist, beginnen Sie mit der Serverkonfiguration. Dieses Mal haben wir versucht, den LightCell-Server zu verwenden (die EC2-Demo, die häufig in früheren Blogs und Videos verwendet wurde). 1. Melden Sie sich bei der Konsole an : Melden Sie sich bei dem Konto an, das Sie gerade registriert haben, und klicken Sie auf die Konsole. 2. Erstellen Sie eine Instanz : Suchen Sie in der Konsole nach „LightCell“ und erstellen Sie dann eine Instanz. In diesem Zeitraum können Sie regionale Systemtypen und vorinstallierte Umgebungen je nach Bedarf wechseln. Wenn Sie unsicher sind, können Sie die Standardeinstellungen beibehalten. Wählen Sie dann eine Instanzspezifikation aus (unterschiedliche Spezifikationen haben unterschiedliche Gebühren), benennen Sie die Instanz und schließen Sie die Erstellung ab. Behalten Sie in den folgenden Schritten einfach die Standardeinstellungen bei und laden Sie schließlich das Zertifikat für die lokale SSH-Anmeldung herunter.
Der Server ist bereit. Als nächstes konfigurieren Sie die Projektumgebung. Es wird empfohlen, die OnePanel-Panel-Software herunterzuladen. Die Installation ist sehr einfach und kann mit nur einem Befehl durchgeführt werden. Nach Abschluss der Installation werden die OnePanel-Zugriffsinformationen ausgegeben. Stellen Sie sicher, dass Sie einen Ort zum Aufzeichnen finden, um zu verhindern, dass nachfolgende Anmeldungen blockiert werden. Danach müssen Sie den OnePanel-Port freigeben und zur einfachen Konfiguration zur Konsole zurückkehren. Öffnen Sie ein neues Browserfenster und geben Sie die OnePanel-Adresse ein. Wenn die entsprechende Schnittstelle erscheint, ist die Installation erfolgreich. Das OnePanel-Panel-Tool spielt eine große Rolle bei der späteren Serverbetriebs- und Wartungsüberwachung, daher werde ich hier nicht näher darauf eingehen.
Nachdem die Umgebung eingerichtet ist, gehen Sie zur GitHub-Projektadresse und kopieren Sie den Docker-Befehl in den Texteditor. Der Inhalt hinter jedem „E“ ist der Betriebsparameter. Sie müssen den Inhalt nach dem Gleichheitszeichen entsprechend dem von Ihnen benötigten KI-Dienst ersetzen, z. B. ChatGPT, Midjourney, Suno usw. Um die zentrale Verwaltung und Nutzung dieser KI-Dienste zu erleichtern, wird empfohlen, die vom Projektautor empfohlene Transferdienst-Website zu nutzen. Melden Sie sich auf der Website an und laden Sie zum ersten Mal zehn Yuan auf, um es zu erleben. Klicken Sie auf „Schlüssel abrufen“ und kopieren Sie den Schlüssel, um alle „xxx_key“-Werte im Docker-Befehl zu ersetzen. Kopieren Sie gleichzeitig die Serviceadresse der Transit-Website und ersetzen Sie die entsprechende Adresse in den Docker-Parametern. Nachdem die Änderung abgeschlossen ist, führen Sie diesen Befehl auf der Konsole aus und warten Sie einen Moment, bis das Projekt erfolgreich gestartet wird. Vergessen Sie nach dem Start nicht, den von Docker zugeordneten 6015-Port freizugeben und dann „IP + Port“ in den Browser einzugeben, um darauf zuzugreifen. Wenn Sie die entsprechende Schnittstelle sehen können, herzlichen Glückwunsch, Sie sind fertig!
Betreten Sie die Benutzeroberfläche und erleben Sie zunächst die KI-Konversationsfunktion. Die Interaktion mit ChatGPT ist grundsätzlich gleich, mit extrem schneller Antwort auf Fragen und Modellauswahl. Unterstützt auch die GBDS-Funktion. Allerdings ist zu beachten, dass bei einigen Modellen höhere Token-Gebühren anfallen, sodass Sie nach Ihrem Können vorgehen müssen.
Versuchen Sie dann, KI zum Generieren von Bildern zu verwenden. Nachdem Sie das Eingabeaufforderungswort eingegeben und eine Weile gewartet haben, gibt die KI das Bild zurück. Und die Interaktion hier ist die gleiche wie bei Midjourneys nativem Betrieb auf Discord, was die Verwendung sehr reibungslos macht.
Funktionen wie die Songerstellung von Suno und die Videogenerierung von Runway werden in diesem Artikel aus Zeitgründen nicht vorgestellt. Sie können sie selbst erkunden.
Auf diese Weise wird unsere eigene KI-Tool-Sammlungs-Website fertiggestellt und online bereitgestellt. Sollten während des Vorgangs Probleme auftreten, hinterlassen Sie bitte eine Nachricht im Kommentarbereich und ich werde sie einzeln beantworten. Die am Video beteiligten URLs, einschließlich der GitHub-Projektadresse, werden im angehefteten Kommentar platziert. Ich hoffe, dass Sie dieses Toolset nutzen können, um Ihre eigene erstaunliche KI-Reise zu beginnen!
Auf Twitter teilen Auf Facebook teilen
Kommentare
Derzeit liegen keine Kommentare vor