Wieder zurück

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!

  • Hallo zusammen,


    Ich habe vor vielen Jahren aufgehört mit Profan zu arbeiten. Ich glaube damals war es Version 8 oder 9.


    Nun bin ich nach einigen Ausflügen in die Webprogrammierung wieder zu Profan zurückgekehrt um mich einem Projekt zu widmen, was mich sehr interessiert:


    Die Realisierung eines einfache Neuronalen Netzes. Hierzu habe ich bereits eine grafische Oberfläche geschaffen um die Ergebnisse sichtbar zu machen:
    https://drive.google.com/file/…yrJcDCZT/view?usp=sharing


    Aktuell Arbeite ich an der Realisierung des Neuronalen Netzwerkes. Hierzu führe ich aktuell verschiedene Tests durch.
    Ich glaube hier finde ich kompetente Menschen, die mir Tipps und Hinweise zur Optimierung der Performance bieten, oder Anregungen zum Thema KI Programmierung.


    Ich freue mich auf eure Kommentare und Mitteilungen.

  • Na Bumm, eine ZIP-Datei mit 101 MByte??


    Obwohl es mir sehr leid tut - ich liebe XProfan, bin sozusagen Ex-Pro-Fan, muss ich sagen, daß im Falle von KI-Netzen Profan bisher zu langsam ist. Die Sprache, die sich dafür weltweit bisher am meisten durchgesetzt hat, ist Python, das die KI-Forschung weltweit verwendet, und wo auch die meisten Assembler- und GPU-Bibliotheken / Libraries existieren. Wenn Du Erfolge bis hin zum Deep Learning sehen willst, ist das die Sprache der Wahl. Geht´s lediglich um Verständnis, wie Neuronale Netze funktionieren, geht das natürlich auch in Profan. Vorausgesetzt, man hat noch viel (Rest-Lebens)Zeit.


    Gruss

    HP255G7:Win10pro2.004,4*AMD Ryzen3200U@2.60GHz,6+2GB-RadeonVega/237GBSSD:intlDVDRW,3xUSB3 ext4TB-HDX,XProfanX3+Xasm/Xpse

  • Nur zu meinem Verständnis:


    Python wird doch zur Laufzeit nur interpretiert. Ich ging bisher davon aus, das Python eher zu den lahmen Programmiersprachen gehört und habe xProfan gegenüber Python Geschwindigkeitsmäßig deutlich überlegener eingeordnet.


    Die Stärke von Python wähnte ich eher in der Platformunabhängigkeit & Verbreitung.


    Wo ist da mein Denkfehler?


    Edit:
    OK - wenn Python Assembler- und GPU-Bibliotheken / Libraries mit einbindet, wird dadurch natürlich die Geschwindigkeit kompensiert...

    Gruß Jörg


    Ideen gibt es viele - man muß sie nur haben...
    Win7-Pro / Linux Mint

    Einmal editiert, zuletzt von JörgG ()

  • Hallo @JörgG!


    Zit. Python-Wiki: ..."großen Python-Bibliothek zur Ansteuerung der Hardware." ... "In der Wissenschaftsgemeinde genießt Python große Verbreitung, hauptsächlich wegen des einfachen Einstiegs in die Programmierung und der großen Auswahl wissenschaftlicher Bibliotheken. Numerische Rechnungen und die visuelle Aufbereitung der Ergebnisse in Graphen werden meist mit NumPy und der Matplotlib erledigt. Anaconda und SciPy bündeln viele wissenschaftliche Python-Bibliotheken und machen sie somit einfacher zugänglich. Mit TensorFlow, Keras, Scikit-learn, PyTorch u. a. gibt es große Bibliotheken zur Forschung und Nutzung von maschinellem Lernen und Deep Learning (Künstliche Intelligenz)." Zit.Ende


    So müsste man das Rad nicht neu erfinden.
    Gruss

    HP255G7:Win10pro2.004,4*AMD Ryzen3200U@2.60GHz,6+2GB-RadeonVega/237GBSSD:intlDVDRW,3xUSB3 ext4TB-HDX,XProfanX3+Xasm/Xpse

  • Ah ok, Danke für die Nachhilfe:-) Klar, die Unterstützung & Verbreitung ist wohl unschlagbar...
    Man muß das "Rad" dann nur noch benutzen - aus dieser Sicht führt Python schneller zum Erfolg.


    Die Ausführungs-Geschwindigkeit entsteht also deshalb, weil viele Bibliotheken nativ ausgeführt werden und Python gewissermaßen für die Programmsteuerung, -logik zuständig ist.


    Den Speed erledigt aber nicht Python direkt - richtig?
    Also wenn z.B. Python & xProfan je eine exakt gleiche rechenintensive Aufgabe nativ in einer Schleife ausführen würden. Selber Rechner, selbes System. XProfan als .exe, Python interpretiert (geht ja nicht anders) - Dann sollte xProfan doch schneller sein (glaub ich ;-) )


    Wie auch immer, bezüglich KI ist Python mächtiger wegen der immensen Verbreitung/Unterstützung (nach Schließung meiner Wissenlücke seh ich das jetzt auch so.)

    Gruß Jörg


    Ideen gibt es viele - man muß sie nur haben...
    Win7-Pro / Linux Mint

  • Wer Speed direkt in Python braucht, nimmt Cython - dort wird die Source dann in C++ übersetzt. Ähnliches Prinzip wie damals Profan2CPP.

    HP255G7:Win10pro2.004,4*AMD Ryzen3200U@2.60GHz,6+2GB-RadeonVega/237GBSSD:intlDVDRW,3xUSB3 ext4TB-HDX,XProfanX3+Xasm/Xpse

    2 Mal editiert, zuletzt von p. specht ()

  • Was dann noch ginge, wäre künstlicher, handoptimierter Code - eingebunden in Form von Hex-Zahlen

    Da Delphi ja auch ASM unterstützt, wäre das was für Roland.
    Evtl. mal die langsamen Stringfunktionen ersetzen. Aber da
    werden Roland die richtig guten ASM-Kenntnisse fehlen.
    Man muß ja auch nicht alles könnnen.
    Vielleicht könnte man mal ein extra Thema aufmachen, wo
    selbst geschriebene ASM-Funktionen in XProfan reinkommen.
    Ich selber kann zwar fast kein ASM, aber Leute wie Volkmar
    u.a. könnten durchaus was dazu beitragen.
    Irgendwann könnte man dann manche XProfan-Funktion
    durch eine INCLUDE ersetzen.

  • Das hatte ich schon einmal vorgeschlagen.

    XProfan-Semiprofi (XProfan X4a+XPIA+LemonEd)
    Ryzen 5800X/Gigabyte B550m DS3H/32GB RAM@3600MHz/Radeon HD7770 OC/Asus Xonar SE/108TB HDD+512GB Samsung 980 Pro+2TB Crucial SSD/28" Samsung 4k
    TerraMaster F4-421 mit 28TB
    XBox Classic/360S/Series X/PS3 Super Slim 500GB/PS4 Pro (XBL-ID: jacdelad, PSN: jacdelad84)
    OnePlus 6 8GB/256GB
    jacdelad.bplaced.net

  • @p.specht:
    Das Profan nicht die beste Sprache für Neuronale Netzte ist, war mir von beginn klar. Es ist tatsächlich nur zum Verständnis des ganzen Gedacht. Die 101MB ergeben sich aus den Sound Dateien, die in dieser Grafikoberfläche enthalten sind. (Muss ja auch hübsch aussehen :pfeifend::pfeifend: )