Todavía soy bastante nuevo así que tengan paciencia conmigo en este caso, mi pregunta (s) no debe ser argumentativa o mezquina, pero durante algunas lecturas algo me pareció extraño.Uso de diferentes tipos de variables numéricas
Supongo que cuando las computadoras eran lentas y la memoria era costosa con el tipo de variable correcto, era mucho más una necesidad de lo que es hoy en día. Ahora que la memoria es un poco más fácil de encontrar, la gente parece haberse relajado un poco. Por ejemplo, puede ver este código de ejemplo en todas partes:
for (int i = 0; i < length; i++)
int? (-2,147,483,648 a 2,147,483,648) para la longitud? ¿No es byte (0-255) una mejor opción?
Así que estoy curioso de su opinión y de lo que cree que es la mejor práctica, odio pensar que esto sería utilizado solo porque el acrónimo "int" es más intuitivo para un principiante ... o la memoria se ha vuelto tan barata que realmente no tenemos que preocuparnos por cosas tan insignificantes y, por lo tanto, deberíamos utilizarlo por mucho tiempo para asegurarnos de que cualquier otro número/tipo (dentro de lo razonable) utilizado pueda ser lanzado automágicamente.
... o solo estoy siendo tonto al preocuparme por tales cosas?
Definitivamente no es tonto, la curiosidad ayuda a construir un mejor programador. – ChaosPandion