Mi problema, es que no conozco a nadie que sepa programar, y al comparar muchas veces codigos mios con otros que cumplen la misma funcion, noto que son totalmente distintos, y aunque generalmente no logro decifrar del todo como funcionan, puedo notar que son muchisimo mas eficientes tanto en funcionamiento, como en simplicidad y orden de escritura (aunque mi mareo es que no tengo una base sobre como escribir un codigo, y en consecuencia como leerlo).
Justamente, para poder mejorar mis codigos, queria encontrar la manera de calcular el tiempo que tarda en ejecutarlos la PC.
Por ejemplo en un pathfind de A* que hice, logre que en mi computadora pase de tardar aproximadamente 2 segundos a practicamente nada, en NO encontrar solucion a una grilla de 40x40, es decir, recorrer TODOS los nodos.
basicamente quiero un codigo que me diga cuantos milisegundos tarda en ejecutarse el codigo, para ir haciendo un mejor uso de los recursos (que estoy seguro desperdicio).
no es necesario que alguien me de uno hecho, sino que al menos me digan que debo estudiar (segun creo se manejan bits) y como aplicarlo, algun tutorial, etc
desde ya muchas gracias
