Was bedeutet Fischerei
Mit Fischerei bezeichnet man die Wirtschaftszweige, die sich mit dem Fangen oder Züchten von Fischen und anderen Wassertieren zur Nahrungsgewinnung und Weiterverarbeitung beschäftigen. Die Fischerei zählt zum primären Wirtschaftssektor, zu dem auch Landwirtschaft und Bergbau gehören. Wichtig für eine nachhaltige Fischerei ist eine verlässliche und langfristig angelegte Fischereiforschung, wie sie in Deutschland z. B. von der Bundesforschungsanstalt für Fischerei betrieben wird.
Quelle: https://de.wikipedia.org/wiki/Fischerei