Bra, snabbt, och billigt tycks vara det stora ropet för den generativa AI-industrin och många företag kommer in med sina erbjudanden.
Fastighetsdata- och proptechföretaget Markerr meddelade att de utökar sitt Data Studio-erbjudande med ytterligare en produkt. Företaget hävdar att denna produkt, “Markets”, förser fastighetsproffs med “omfattande och detaljerad data för att analysera marknader” samtidigt som den ökar den potentiella hastigheten för arbetsflöden.
Följande är nyckelfunktioner i den nya produkten, enligt Markerr:
- “Omfattande och detaljerad marknadsdata: Få tillgång till ett stort lager av realtidsdata, inklusive fastighetspriser, hyrespriser, demografisk information, marknadstrender med synlighet på postnummernivå.”
- “RealRent 5-års hyrasprognos: Utnyttja vår maskininlärningsdrivna prognos för att identifiera nya marknadsmöjligheter, förutsäga framtida tillväxt och bedöma riskfaktorer med precision.”
- “Jämförande analys: Genomför grundliga jämförelser mellan flera marknader, utvärdera deras potential och få värdefulla insikter för att fatta välgrundade beslut.”
- “AI-genererade marknadssammanfattningar och analys: Utnyttja den transformativa kraften hos generativ AI för att snabbt låsa upp nya insikter, förstå marknadsdynamiken och upptäcka dolda investeringsmöjligheter.”
AI-verktygen är också tänkta att göra det enklare och snabbare för användare att analysera nyckelprestandaindikatorer på delmarknaden (KPI:er).
Men som all AI-teknik som släpps ut på marknaden måste användarna utföra tester och vara försiktiga. Generativ AI som ChatGPT har mycket lovandemen har redan sett betydande hicka, som att tillverka datakällor eller behöva mycket mer vägledning och herde än vad den vanliga användaren inser.
Det fungerar genom att matas med stora mängder material, leta efter mönster över det och sedan utveckla statistiskt sofistikerade mekanismer för att bestämma mer sannolika svar på frågor baserat på ett givet sammanhang.
Men det är inte detsamma som faktiska tankar eller förmågan att resonera. Några, men inte alla, av de mest påfallande felen som har dykt upp bland generativa AI-produkter har varit en oförmåga att hantera ännu enklare matematik.
Google presenterade nyligen en förbättring av sitt generativa AI-chattsystem Bard. Att generera datorkod som företaget hävdade skulle göra det möjligt för programvaran att svara på matematiska och logiska frågor mer exakt.
Noah Giansiracusa, en anställd docent i matematik och datavetenskap vid Bentley University, postat på Twitter ett test om enkel vektormatte som hans bror hade kört genom systemet. Programvaran fick fel svar, även om den genererade kod som, när den kördes, kunde ge rätt svar, var det bara Bard som fortfarande gav fel.
Detta är inte att säga att ett givet företags generativa AI är problematisk. Det skulle inte finnas något sätt att veta utan att testa. Det är precis vad användare bör göra för att vara säkra på att de inte litar på ett system som inte ger rätt information eller analys.