Das Wissensportal für IT-Professionals. Entdecke die Tiefe und Breite unseres IT-Contents in exklusiven Themenchannels und Magazinmarken.

heise conferences GmbH

(vormals SIGS DATACOM GmbH)

Lindlaustraße 2c, 53842 Troisdorf

Tel: +49 (0)2241/2341-100

kundenservice@sigs-datacom.de

AI

276 Inhalte
Entdecken Sie unser Archiv zu tiefgehenden Inhalte zum Thema AI.
Künstliche Intelligenz trifft traditionelle Industrie: In der Stahlproduktion unterliegt der erzeugte Stahl einer kontinuierlichen Qualitätssicherung. Der Grobblechhersteller Dillinger setzt dabei ein auf einem Grafikprozessor laufendes neuronales Netz ein. Es unterstützt die bildanalytische Bewertung der Beschaffenheit des Stahls.
KI-gestützte Bildanalyse im Stahlwerk
Entwickler stehen regelmäßig vor der Frage, wie sie KI-Prozesse verbessern können und welcher Algorithmus für bestimmte Fragestellungen jeweils der passende ist. Ein Praxisbeispiel aus der Logistik zeigt, wie die Suche nach dem richtigen Algorithmus strukturiert erfolgen kann.
Auf der Suche nach dem passenden Algorithmus
Die Anzahl von Publikationen zu Computer Vision, Neuro-Linguistischer Programmierung (NLP) oder Reinforcement Learning ist heutzutage gewaltig. Dabei widmen sich die meisten ausschließlich dem Training. Doch oft müssen Data Scientists auch beim Betrieb ihrer Modelle mitwirken. Dafür braucht es einen pragmatischen und unaufwändigen Weg.
Pragmatisch zum Praxiseinsatz von Machine Learning in der Cloud
Frameworks für das Machine Learning (ML) wurden ursprünglich für numerische Mathematik, Matrix-Berechnungen oder Statistik optimiert. Mit Deep Learning stieg dann der Bedarf nach darauf optimierten und spezialisierten Frameworks. Immer häufiger kommen deshalb heute Frameworks wie Apache MXNet (Incubating) und Gluon zum Einsatz.
Mehr Produktivität für die Machine Learning-Entwicklung
Wenn Menschen die Entscheidungen von Künstlicher Intelligenz nicht verstehen und nicht nachvollziehen können, vertrauen sie ihnen auch nicht – sei es bei der Bewilligung eines Kreditantrags oder beim autonomen Fahren. Die Entscheidungen und Handlungen der Modelle müssen deshalb transparent und erklärbar sein.
Das Blackbox-Problem: Künstlicher Intelligenz vertrauen