Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Harj Taggar
Użytkownik Harj Taggar udostępnił ponownie
Obecnie istnieje ogromna przewaga bycia startupem stacjonarnym w SF: bliskość do laboratoriów AI, wczesny dostęp do modeli, bliskość do ludzi na czołowej pozycji, dostęp do kapitału. Jeśli nowy model zostanie wprowadzony, a twój zespół będzie szybszy w integracji, to może być łatwo różnica między pozyskaniem setek nowych użytkowników w ciągu jednego dnia a brakiem takiej możliwości.
6,93K
Użytkownik Harj Taggar udostępnił ponownie
Współzałożyciel i dyrektor generalny Figma, Dylan Field (@zoink), o tym, jak AI zmieni projektowanie i dlaczego rzemiosło oraz dbałość o szczegóły będą ostatecznymi wyróżnikami.
Na AI Startup School w San Francisco.
01:38 – Jak Dylan i Evan zaczęli Figma
02:58 – WebGL: Od gier do narzędzi
04:10 – Kupowanie czasu na budowanie
05:48 – Utrzymywanie motywacji podczas wczesnych eksploracji
06:10 – Zimne e-maile, wczesne opinie i pierwsi użytkownicy
08:24 – Czas na uruchomienie i lekcje dotyczące wczesnej wysyłki
10:08 – Kultura ograniczeń i kreatywne rozwiązywanie problemów
10:50 – Rozpoznawanie popytu na produkt
13:32 – Dlaczego projektowanie jest wyróżnikiem w erze AI
16:34 – Wprowadzenia produktów AI Figma i rozszerzanie poza projektowanie
18:56 – Zacieranie się granic między projektowaniem, rozwojem a produktem
21:00 – „Era MS-DOS” interfejsów AI i przyszłe powierzchnie
23:26 – Rola projektowania w badaniach AI i przyszłość projektantów
27:36 – Pytania i odpowiedzi od publiczności: narzędzia AI, open source, zasady i porady
170,37K
Użytkownik Harj Taggar udostępnił ponownie
Czasami trudno jest zrozumieć znaczenie aktualizacji rozumowania i logiki, które zaczynają się pojawiać w potężnych modelach, takich jak GPT-5. Oto *bardzo prosty* przykład, jak potężne stają się te modele.
Wziąłem niedawny dokument transkrypcji rozmowy o wynikach finansowych NVIDIA, który miał 23 strony i 7,800 słów. Wziąłem część zdania "i marża brutto poprawi się i wróci do średnich 70%" i zmodyfikowałem "średnie 70%" na "średnie 60%".
Dla zdalnie zorientowanego analityka finansowego, to wyglądałoby na nie na miejscu, ponieważ marże nie mogłyby "poprawić się i wrócić" do niższej liczby niż ta opisana jako wyższa gdzie indziej. Ale prawdopodobnie 95% osób czytających ten komunikat prasowy nie zauważyłoby modyfikacji, ponieważ łatwo wpasowuje się w pozostałe 7,800 słów, które są wymienione.
Z Box AI, testując różne modele AI, zadałem następnie serii modeli pytanie "Czy w tym dokumencie są jakieś błędy logiczne? Proszę podać odpowiedź w jednym zdaniu."
GPT-4.1, GPT4.1 mini i garstka innych modeli, które były na czołowej pozycji zaledwie ~6 miesięcy temu, generalnie odpowiedziały, że nie ma błędów logicznych w dokumencie. Dla tych modeli dokument prawdopodobnie wydaje się spójny i odpowiada temu, czego oczekiwaliby od transkrypcji wyników, więc nic naprawdę nie wyróżnia się dla nich, na co należy zwrócić uwagę - coś w rodzaju odwrotnej halucynacji.
GPT-5, z drugiej strony, szybko odkrył problem i odpowiedział:
"Tak — dokument zawiera wewnętrzną niespójność dotyczącą prognozy marży brutto, w pewnym momencie mówiąc, że marże "wrócą do średnich 60%", a później mówiąc, że będą "w średnich 70%" później w tym roku."
Niesamowite, że to się zdarzyło z GPT-5, GPT-5 mini i, co zaskakujące, *nawet* GPT-5 nano. Pamiętaj, że tokeny wyjściowe GPT-5 nano są wyceniane na 1/20 tokenów GPT-4.1. Więc, bardziej inteligentne (w tym przypadku) za 5% kosztów.
Teraz, podczas przeglądów błędów w dokumentach biznesowych, nie jest to często codzienna czynność dla każdego pracownika wiedzy, te typy problemów pojawiają się na różne sposoby, gdy mamy do czynienia z dużymi, nieustrukturyzowanymi zbiorami danych, takimi jak dokumenty finansowe, umowy, transkrypcje, raporty i inne. Może to być znalezienie faktu, zrozumienie błędu logicznego, przeprowadzenie hipotezy lub wymaganie zaawansowanego rozumowania dedukcyjnego.
A zdolność do stosowania większej logiki i rozumowania do danych przedsiębiorstwa staje się szczególnie krytyczna przy wdrażaniu agentów AI w przedsiębiorstwie. Dlatego niesamowite jest widzieć postępy w tej dziedzinie w tej chwili, a to otworzy wiele nowych przypadków użycia dla firm.
193,67K
Użytkownik Harj Taggar udostępnił ponownie
Organizujemy wydarzenie dotyczące inżynierii kontekstu w SF!
Dowiedz się, jak wiodące zespoły zajmujące się zastosowaniami AI inżynierują swoje okna kontekstowe. Posłuchaj:
Jake Heller, CEO @Casetext
Beyang Liu, CTO @Sourcegraph
Sam Bhagwat, CEO @Mastra_ai
Jeff Huber, CEO @trychroma
RSVP:

97,93K
Użytkownik Harj Taggar udostępnił ponownie
Nowe laboratorium badawcze AI o nazwie @blankbio_ zostało uruchomione dzisiaj. Budują nowe modele podstawowe dla mRNA i są jednym z najsilniejszych zespołów technicznych, z którymi pracowałem.
Szczególnie ekscytują mnie ich nowe wyniki modeli oraz szeroki zakres obszarów zastosowań.
29,22K
Najlepsze
Ranking
Ulubione
Trendy onchain
Trendy na X
Niedawne największe finansowanie
Najbardziej godne uwagi