SentiSight.ai ist eine webbasierte Plattform, die für die Bildbeschriftung und die Entwicklung von KI-basierten Bilderkennungsanwendungen verwendet werden kann. Sie hat zwei Hauptziele: Das erste ist, die Bildannotationsaufgabe so bequem und effizient wie möglich zu gestalten, selbst für große Projekte mit vielen Personen, die an der Bildbeschriftung arbeiten, und das zweite ist, eine reibungslose und benutzerfreundliche Oberfläche für das Training und die Bereitstellung von tiefen neuronalen Netzmodellen bereitzustellen. Die Fähigkeit, beide Aufgaben auf derselben Plattform auszuführen, bietet den Vorteil, Bilder zu beschriften und dann Modelle in einem iterativen Prozess zu trainieren und zu verbessern.
SentiSight.ai bietet leistungsstarke Funktionen wie:
Bildbeschriftung. Unser Beschriftungstool ermöglicht das Hinzufügen von Klassifikationslabels, Begrenzungsrahmen, Polygonen, Punkten, Polylinien und Bitmaps. Bitmaps können leicht in Polygone umgewandelt werden und umgekehrt. Darüber hinaus kann jedes beschriftete Objekt mehrere untergeordnete Objekte haben, wie Schlüsselpunkte oder Attribute. Die beschrifteten Bilder können direkt für das Modelltraining auf der SentiSight.ai-Plattform verwendet oder heruntergeladen und für das interne Modelltraining genutzt werden.
Intelligentes Beschriftungstool. Dieses Tool kann verwendet werden, um die Geschwindigkeit der Bitmap-Beschriftung erheblich zu erhöhen. Das intelligente Beschriftungstool ermöglicht es Benutzern, einige Punkte im Vordergrund und Hintergrund auszuwählen und die KI das beschriftete Objekt extrahieren zu lassen.
Gemeinsame Beschriftungsprojekte und Zeiterfassung. Um die Handhabung großer Annotationsprojekte zu erleichtern, ermöglicht SentiSight.ai, ein Projekt unter mehreren Benutzern zu teilen, sodass mehrere Personen Bilder im selben Projekt beschriften können. Der Projektmanager kann schnell die von einem bestimmten Projektmitglied beschrifteten Bilder filtern und überprüfen, den Fortschritt und die auf die Beschriftung verwendete Zeit jeder Person verfolgen sowie Benutzerrollen und Berechtigungen verwalten.
Klassifikationsmodelltraining. Dieser Modelltyp kann verwendet werden, um bestimmte Objekte in einem Bild zu identifizieren, wie eine Katze oder einen Hund, jedoch ohne deren Standort anzugeben. Sie können auch trainiert werden, um abstraktere Konzepte zu identifizieren, wie „Sommer“ oder „Winter“.
Objekterkennungsmodelltraining. Dieser Modelltyp kann verwendet werden, um nicht nur ein bestimmtes Objekt zu identifizieren, sondern auch dessen genaue Position in einem Bild vorherzusagen. Für jedes Objekt, das im Bild vermutet wird, sagt das Modell auch einen rechteckigen Begrenzungsrahmen voraus, der den Standort des Objekts angibt. Dies ist sehr nützlich, wenn man nicht nur wissen muss, was im Bild ist, sondern auch die relative Position und Anzahl der Objekte.
Online- und Offline-Modelle (kostenlose 30-Tage-Testversion verfügbar). SentiSight.ai bietet die Möglichkeit, Ihre Deep-Learning-Modelle sowohl online als auch offline zu nutzen. Online-Modelle können über REST API oder Webschnittstelle verwendet werden. Beide Optionen erfordern eine Internetverbindung. Eine andere Möglichkeit ist, das Bilderkennungsmodell offline herunterzuladen und zu verwenden. Ein Offline-Modell kann als kostenlose 30-Tage-Testversion heruntergeladen werden, nach der der Benutzer die Möglichkeit hat, eine Lizenz zu erwerben. Der Preis der Lizenz hängt von der Geschwindigkeit des Modells ab und ist eine einmalige Zahlung.
Vorgefertigte Modelle. Zusätzlich zur Möglichkeit, selbst Bilderkennungsmodelle zu trainieren, bietet SentiSight.ai auch mehrere vorgefertigte Modelle, die ohne zusätzliches Training sofort einsatzbereit sind. Diese vorgefertigten Modelle können für mehrere Aufgaben verwendet werden, wie Inhaltsmoderation, Warenklassifikation, automatische Hashtags, Personenzählung und mehr.
Bildähnlichkeitssuche. Dies ist eine weitere einsatzbereite Funktion, die es Benutzern ermöglicht, ein Bild hochzuladen und alle ähnlichen Bilder zu dieser Anfrage in ihrem Datensatz zu finden. Es ermöglicht Benutzern auch, NvN-Ähnlichkeitssuchen in ihrem Datensatz durchzuführen, bei denen alle ähnlichen Bildpaare abgerufen werden.